JP7384960B2 - 腫瘍を識別するための畳み込みニューラルネットワークを用いた組織像の処理 - Google Patents

腫瘍を識別するための畳み込みニューラルネットワークを用いた組織像の処理 Download PDF

Info

Publication number
JP7384960B2
JP7384960B2 JP2022084796A JP2022084796A JP7384960B2 JP 7384960 B2 JP7384960 B2 JP 7384960B2 JP 2022084796 A JP2022084796 A JP 2022084796A JP 2022084796 A JP2022084796 A JP 2022084796A JP 7384960 B2 JP7384960 B2 JP 7384960B2
Authority
JP
Japan
Prior art keywords
histology
tumor
image
tissue
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022084796A
Other languages
English (en)
Other versions
JP2022119882A (ja
Inventor
ジョージェスク ウォルター
オルソン アレン
アンナルダス バラット
ローラー ダラ
シールズ ケヴィン
サリグラマ キラン
グレッグソン マーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leica Biosystems Imaging Inc
Original Assignee
Leica Biosystems Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Biosystems Imaging Inc filed Critical Leica Biosystems Imaging Inc
Publication of JP2022119882A publication Critical patent/JP2022119882A/ja
Application granted granted Critical
Publication of JP7384960B2 publication Critical patent/JP7384960B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/1801Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
    • G06V30/18019Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
    • G06V30/18038Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
    • G06V30/18048Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
    • G06V30/18057Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Description

関連出願の相互参照
本出願は、2017年12月29日に出願された米国仮特許出願第62/611,915号の優先権を主張し、完全に記載されているかのように参照により本明細書に組み込まれる。
本開示は、腫瘍を識別するための畳み込みニューラルネットワーク(CNN)を用いた組織像の処理に関する。
癌は、北米の女性の主たる死亡原因の第2位である。女性における全てのタイプの癌のうち、乳癌は最も一般的であり癌による死亡原因の第2位である。そのため、乳癌治療の精度は、生涯のある時点で乳癌を発症する顕著なパーセンテージの女性における寿命およびクオリティーオブライフに大きな影響を及ぼす。
乳癌は、ある特定の遺伝子の発現に基づき種々の分子サブタイプに分類することができる。一般に使用されている分類体系は以下の通りである。
1.管腔A:ER+、PR+、HER2-
2.管腔B:ER+、PR-、HER2+
3.トリプルネガティブ乳癌(TNBC):ER-、PR-、HER2-
4.HER2リッチ:HER2+、ER-、PR-
5.正常様
ERはエストロゲン受容体の略である。PRはプロゲステロン受容体の略である。HER2はヒト上皮成長因子受容体2の略である。
このようなサブタイプの中にはホルモン受容体陽性のもの(例えば、管腔A)があり、これはホルモン療法を用いて治療することができる。乳癌にはHER2陽性であるものもあり、これはHER2を標的とする薬物、例えば、トラツズマブ(商品名ハーセプチン(F.Hoffmann-La Roche AGの登録商標))を用いて治療することができる。陽性でない癌はこのタイプの治療に応答せず、別の方法で治療する必要があるため、乳癌がER、PR、またはHER2陽性であるかを判定することは重要である。従来、陽性の判定は、顕微鏡下でスライドガラス上の組織学的試料を検査する病理医によって行われてきた。スライドガラス上で、ホルモン特異的抗体が、免疫組織化学(IHC)技法を用いて、患者からのホルマリン固定パラフィン包埋乳房組織切片に適用される。IHC染色が完了した後、免疫反応性組織は褐色の沈殿物として顕微鏡下で可視化され得る。College of American Pathologists(CAP)は、陽性染色された全ての腫瘍含有エリアがパーセンテージ陽性に達するように評価されることを推奨している。観察者間および観察者内再現性を向上させるため、CAPガイドラインは、画像解析を用いてパーセンテージ陽性を計算することを推奨している。パーセンテージ陽性は腫瘍細胞エリアのみに対し計算されなければならないため、現状では画像解析を実行する病理医は手作業で腫瘍エリアの輪郭を描かなければならない。輪郭描画プロセス自体は単調であり誤りを生じやすく、再現性の低下を招く恐れがある。
原理上、この問題は、セグメンテーション、境界検出などの従来的な画像処理法を用いたコンピュータ自動化、または人工知能法、詳細にはニューラルネットワークおよびディープラーニングによるコンピュータ自動化が適用可能である。それにもかかわらず、実際には、この問題は長年にわたり、求められるレベルの正確さまで、すなわち、病理医と同等以上の正確さまでコンピュータ自動化することは信じられないほど困難であることが判明している。
乳癌およびその他の癌の組織像の画像処理にCNNを使用する試みが行われてきた。
Wang et al 2016[1]は、乳癌のリンパ節への転移を検出するCNNアプローチについて説明している。
US2015213302A1[2]は、どのように細胞有糸分裂が癌性組織の領域内で検出されるかについて説明している。CNNを訓練した後、分類は、有糸分裂カウントを実行する自動化核検出システムに基づいて行われ、次いでこのシステムは腫瘍をグレード付けするのに使用される。
Hou et al 2016[3]は、脳および肺癌の画像を処理している。全スライド画像(WSI)からの画像パッチを使用して、パッチレベルCNNによりもたらされるパッチレベル予測を行う。
Liu et al 2017[4]は、ギガピクセル乳癌組織像から抽出された画像パッチをCNNで処理して、腫瘍を検出および位置特定している。
Bejnordi et al 2017[5]は、2つのスタックCNNを適用して、ヘマトキシリンおよびエオシン(H&E)染色で染色された乳房組織のWSIから抽出された画像パッチ内の腫瘍を分類している。Bejnordi et alが乳癌試料に適用される他のCNNベースの腫瘍分類法の概要も提供していることがさらに注目される(参考文献10~13を参照)。
本開示の1つの態様によれば、組織像または組織像のセットにおける腫瘍を識別する方法が提供され、この方法は、
データリポジトリ内に格納されているレコードから組織像または組織像のセットを受信することと、
組織像または組織像のセットから画像パッチを抽出することであって、画像パッチが、ピクセル数により定義された幅および高さのサイズを有する、組織像または組織像のセットのエリア部分であることと、
重みおよび複数のチャネルを有する畳み込みニューラルネットワークを提供することであって、各チャネルが、識別対象となる複数の組織クラスのうちの1つに対応し、組織クラスのうちの少なくとも1つが非腫瘍組織を表し、組織クラスのうちの少なくとも1つが腫瘍組織を表すことと、
各画像パッチを入力画像パッチとして畳み込みニューラルネットワークに入力することと、
最小次元数の最終畳み込み層まで次元数を減らし続ける畳み込み層を生成するための多段階畳み込みを実行し、次いで、層が入力画像パッチとサイズがマッチするように復元されるまで次元数を増やし続ける逆畳み込み層を生成することにより畳み込みを反転させるための多段階転置畳み込みを実行することであって、復元された層内の各ピクセルが組織クラスの各々に属する確率を含むことと、
出力画像パッチに達する確率に基づいて、組織クラスを復元された層の各ピクセルに割り当てることと、
を含む。
当該方法はさらに、割り当てるステップの後に、出力画像パッチを集めて組織像または組織像のセットのための確率マップに構築するステップを含むことができる。
当該方法はさらに、割り当てるステップの後に、確率マップが組織像または組織像のセットにリンクするように確率マップをデータリポジトリ内のレコードに格納することを含むことができる。
本発明の実施形態では、各々の連続する畳み込み段階では、次元数が減るにつれて深さが増え、その結果、畳み込み層は、深さが増え続け、かつ次元数が減り続ける。そして、各々の連続する逆畳み込み段階では、次元数が増えるにつれて深さは減少し、その結果、逆畳み込み層は、深さが減り続け、かつ次元数が増え続ける。そして、最終畳み込み層は、最大の深さおよび最小の次元数を有する。畳み込み段階による連続的な深さの増加および逆畳み込み段階による減少のアプローチの代わりに代替となるのは、入力層および出力層以外のあらゆる層が同じ深さを有するニューラルネットワークの設計であろう。
この方法はさらに、組織像または組織像のセットを確率マップと共に、例えば、上に重ねて、または互いの横に、ディスプレイ上に表示することを含む。確率マップを使用して、どのエリアが、どのような使用されるIHCスコアリングアルゴリズムによってスコア付けされるべきかを決定することができる。また、確率マップを使用して、例えば、病理医がCNNにより生成された結果を評価できるようにするために、ディスプレイ内に提示させることができる腫瘍細胞の周りの輪郭のセットを生成することもできる。
ある特定の実施形態において、畳み込みニューラルネットワークは1つ以上のスキップ接続を有する。各スキップ接続は、最終畳み込み層より高次元の畳み込み層のうちの少なくとも1つからの中間結果を取り出し、結果を、ゼロでも1つでも2つ以上でもよい必要な数の転置畳み込みに供して、入力画像パッチとサイズがマッチした少なくとも1つのさらに復元された層を取得する。次いで、これらは、前述の組織クラスを各ピクセルに割り当てるステップの前に、上述の復元された層と組み合わされる。さらなる処理ステップは、復元された層をさらに復元された層の各々と組み合わせることにより、スキップ接続から取得された結果を考慮する。
ある特定の実施形態において、確率を生成するためにソフトマックス操作が使用される。
組織像(複数可)から抽出された画像パッチは、画像(複数可)の全エリアを網羅し得る。パッチは、重複しない画像タイルであっても、確率マップのスティッチングを支援するために周縁部が重複する画像タイルであってもよい。CNNは固定サイズのピクセルアレイのみを受け入れるように設計されるため、各画像パッチは、CNNにマッチするように固定ピクセル数の幅および高さを有するべきであるが、このことは、各画像パッチが組織像内の同じ物理的面積に対応しなければならないことを意味しない。というのは、組織像内のピクセルを組み合わせてより広い面積を網羅するより低解像度のパッチにできるからであり、例えば、隣接ピクセルの2×2アレイを組み合わせて1つの「スーパーピクセル」にし、組織像のネイティブ解像度で抽出したパッチの4倍の物理的面積を有するパッチを形成することができる。
当該方法は、ひとたびCNNが訓練されたら予測のために実行することができる。訓練の目的は、層間接続のために適切な重み値を割り当てることである。訓練のため、使用されるレコードは、組織像または組織像のセット内の各ピクセルを組織クラスのうちの1つに割り当てるグラウンドトゥルースデータを含む。グラウンドトゥルースデータは、十分に多数の画像にアノテーションするための専門臨床医の使用に基づく。訓練はCNNを反復的に適用することによって行われ、このとき各反復は、グラウンドトゥルースデータと出力画像パッチとの比較に基づいて重み値を調整することを伴う。本発明の実施形態では、重みは訓練中に勾配降下により調整される。
組織クラスを設定するための様々なオプションが存在するが、全てではないとしてもほとんどの実施形態は共通して、非腫瘍組織と腫瘍組織との間のクラスにおいて区別が行われる。非腫瘍組織クラスは、1つ、2つ、またはそれ以上のクラスを含み得る。腫瘍組織クラスも、1つ、2つ、またはそれ以上のクラスを含み得る。例えば、本発明の実施形態では3つの組織クラスがあり、1つは非腫瘍組織のクラス、2つは腫瘍組織のクラスであり、この2つの腫瘍組織クラスは浸潤性腫瘍および上皮内腫瘍に対するものである。
いくつかの実施形態において、CNNは一度に1つの組織像に対し適用される。他の実施形態において、CNNは、組織の一領域の別々に染色された隣接する切片から撮像した組織像のセットを合わせることにより形成された複合的組織像に対し適用され得る。またさらなる実施形態において、CNNは、組織の一領域の別々に染色された隣接する切片から撮像した画像のセットの画像の各々に対し並行して適用され得る。
CNNからの結果を用いて、当該方法は、ピクセル分類と、確率マップを参照してその分類から定義される腫瘍とに基づいたスコア付けプロセスを含むように拡張してもよい。例えば、当該方法はさらに、確率マップに従って腫瘍に対応する組織像内のエリアを定義することと、スコアを各腫瘍に割り当てるためのスコア付けアルゴリズムに従って各腫瘍をスコア付けすることと、スコアをデータリポジトリ内のレコードに格納することとを含むことができる。スコア付けは、このようにして組織像に対し行われるが、確率マップによって腫瘍組織として識別されたエリアに限定される。
結果は、臨床医に対しディスプレイ上に表示することができる。すなわち、組織像は、その関連する確率マップと共に、例えば、上に重ねて、または互いの横に、表示することができる。また、腫瘍スコアは、何らかの好都合な方式で、例えば、腫瘍上にもしくは腫瘍を指すテキストラベルを伴って、または画像の横に表示することもできる。
畳み込みニューラルネットワークは、完全畳み込みニューラルネットワークであってもよい。
本発明のさらなる態様は、組織像または組織像のセットにおける腫瘍を識別するためのコンピュータプログラム製品であって、上記で説明されている方法を実行するための機械可読命令を有する、コンピュータプログラム製品に関する。
本発明のまたさらなる態様は、組織像または組織像のセットにおける腫瘍を識別するためのコンピュータ装置に関するものであり、コンピュータ装置は、
データリポジトリ内に格納されているレコードから組織像または組織像のセットを受信するように操作可能な入力部と、
組織像または組織像のセットから画像パッチを抽出するように構成された前処理モジュールであって、画像パッチが、ピクセル数により定義された幅および高さのサイズを有する、組織像または組織像のセットのエリア部分である、前処理モジュールと、
重みのセットおよび複数のチャネルを有する畳み込みニューラルネットワークと、
を含み、
各チャネルが、識別対象となる複数の組織クラスのうちの1つに対応し、組織クラスのうちの少なくとも1つが非腫瘍組織を表し、組織クラスの少なくとも1つが腫瘍組織を表し、畳み込みニューラルネットワークは、
各画像パッチを入力画像パッチとして入力するように受信することと、
最小次元数の最終畳み込み層まで次元数を減らし続ける畳み込み層を生成するための多段階畳み込みを実行し、次いで、層が入力画像パッチとサイズがマッチするように復元されるまで次元数を増やし続ける逆畳み込み層を生成することにより畳み込みを反転させるための多段階転置畳み込みを実行することであって、復元された層内の各ピクセルが組織クラスの各々に属する確率を含むことと、
出力画像パッチに達する確率に基づいて、組織クラスを復元された層の各ピクセルに割り当てることと、
を行うように操作可能である。
コンピュータ装置はさらに、出力画像パッチを集めて組織像または組織像のセットのための確率マップに構築するように構成された後処理モジュールを含むことができる。その上、コンピュータ装置はさらに、確率マップが組織像または組織像のセットにリンクするように、確率マップをデータリポジトリ内のレコードに格納するように操作可能な出力部を含むことができる。装置はまたさらに、ディスプレイと、ディスプレイ出力部であって、組織像または組織像のセットおよび確率マップをディスプレイに送信して、組織像が確率マップと共に、例えば、上に重ねて、または確率マップの横に、表示されるように操作可能なディスプレイ出力部とを含むことができる。
本発明の別の態様は、臨床ネットワークであって、上記で説明されているようなコンピュータ装置と、組織像または組織像のセットを含む親データのレコードを格納するように構成されたデータリポジトリと、コンピュータ装置とデータリポジトリと、の間の患者データレコードまたはその一部の転送を可能にするネットワーク接続とを含む、臨床ネットワークである。臨床ネットワークは追加的に、組織像または組織像のセットを取得し、それらをデータリポジトリ内のレコードに格納するように操作可能な画像収集装置、例えば、顕微鏡を含むことができる。
少なくともいくつかの実施形態において、組織像(複数可)は、顕微鏡、特に、光学顕微鏡(従来的な光学顕微鏡、共焦点顕微鏡、または非染色のもしくは染色された組織試料の組織像の取得に適した任意の種類の顕微鏡であり得る)により切片組織試料から撮像した二次元画像のデジタル表現であることが理解されよう。組織像のセットの場合、組織の一領域の隣接する切片(すなわち、スライス)から撮像した一連の顕微鏡像であり得、このとき、各切片は別々に染色され得る。
以下において、本発明はさらに、単に例として、図面に示された例示的な実施形態を参照しながら説明される。
本発明の1つの実施形態によるニューラルネットワークアーキテクチャーの概略図である。 グローバルおよびローカルの特徴マップが、図1Aのニューラルネットワークアーキテクチャー内で、どのようにして組み合わされて入力画像パッチ内の各ピクセルに対し個別クラスを予測する特徴マップを生成するかを示している。 Liu et alによって生成されたパッチレベル予測(左側のタイルAは未加工画像、右側のタイルBはCNN予測であり、暗赤色は予測腫瘍エリア)と、図1Aおよび図1BのCNNを用いた本発明の予測によるパッチレベル予測(左側のタイルCは病理医の手作業によるアノテーション(赤色)およびCNN予測(ピンク色および黄色)を伴った未加工画像であり、右側のタイルDは本発明のCNN予測であり、緑色は非腫瘍、赤色(タイルCではピンク色)は浸潤性腫瘍、青色(タイルCでは黄色)は非浸潤性腫瘍である)との違いを示すカラー図面である。 入力RGB画像パッチ(左側のタイルA)および最終出力腫瘍確率ヒートマップ(右側のタイルB)の一例を示すカラー図面である。タイルAは追加的に、病理医の手作業による浸潤性腫瘍(赤色の輪郭)の輪郭描画と、加えて、タイルB(それぞれ赤褐色および青色)で別個に示されているような、本発明のニューラルネットワークの予測におけるオーバーレイ(ピンク色および黄色に色付けされたエリア)とを示している。 CNNの訓練に関係するステップを示す流れ図である。 CNNを用いた予測に関係するステップを示す流れ図である。 図1Aおよび1Bのニューラルネットワークの実装に関係する計算を実行するために使用され得るTPUのブロック図である。 本発明の実施形態と共に使用され得るコンピュータネットワークの一例を示している。 コンピューティング装置のブロック図であり、これは例えば、図6のTPU向けのホストコンピュータとして使用することができる。
以下の詳細な説明では、限定ではなく説明の目的で、本開示のより良好な理解をもたらすために具体的な詳細が記載される。当業者には、本開示が、これらの具体的な詳細から逸脱する他の実施形態で実施されてもよいことは明らかであろう。
浸潤性の上皮内乳癌細胞核を自動的に検出し輪郭描画するコンピュータ自動化された腫瘍発見法について説明する。当該方法は、単一の入力画像(例えば、WSI)、または入力画像のセット(例えば、WSIのセット)に適用される。各入力画像は、デジタル化された組織像(例えば、WSI)である。入力画像のセットの場合、隣接する組織切片の別々に染色された画像であり得る。染色するという用語は、バイオマーカーによる染色および従来的なコントラスト強調染色を広く含むために使用する。
コンピュータ自動化された腫瘍の輪郭描画は手作業の輪郭描画よりもはるかに高速であるため、画像からの手作業アノテーションで選択された抽出タイルのみではなく、全体の画像の処理が可能になる。提唱される自動腫瘍輪郭描画は、このようにして、病理医が画像内の全ての腫瘍細胞における陽性(または陰性)パーセンテージを計算することを可能にし、これにより、より正確で再現可能な結果がもたらされるはずである。
提唱される腫瘍発見、輪郭描画、および分類のためのコンピュータ自動化法は、畳み込みニューラルネットワーク(CNN)を使用してWSI上の各々の核ピクセルを発見し、次いで各々のこのようなピクセルを、本発明の実施形態の乳癌腫瘍クラスにおいては、非腫瘍クラスおよび複数の腫瘍クラスのうちの1つに分類する。
本発明の実施形態におけるニューラルネットワークは、http://www.robots.ox.ac.uk/~vgg/research/very_deep/で利用可能でありSimonyan and Zisserman 2014[6](当該文献の全内容は参照により本明細書に援用される)で説明されているVGG-16アーキテクチャーに設計が類似している。
入力画像は、本文書の他の箇所でより詳細に論じられているいくつかの従来的染色物質のうちのいずれか1つで染色された病理像である。CNN用にある特定のピクセル寸法の画像パッチ、例えば、128×128、256×256、512×512、または1024×1024ピクセルの画像パッチが抽出される。画像パッチは、任意のサイズであってよく正方形である必要はないが、パッチの横列および縦列におけるピクセル数は2(nは正の整数)に従うことが理解されよう。これは、このような数字が概して、適切な単一のCPU(中央処理装置)、GPU(画像処理装置)、もしくはTPU(テンソル処理装置)、またはこれらのアレイによる直接デジタル処理により適しているためである。
「パッチ」とは、WSIから撮像された、典型的には正方形または長方形の形状を有する画像部分を指すために使用される用語であることに留意されたい。この点において、画像処理が、CNNによる処理のために管理可能なサイズ(例えば、約500×500ピクセル)のパッチに対し典型的に適用されるように、WSIが10億以上のピクセル数(ギガピクセル画像)を含んでもよいことに留意されたい。このようにして、WSIは、パッチに分割し、CNNでパッチを解析し、次いで出力(画像)パッチを再び集めてWSIと同じサイズの確率マップに構築することに基づいて処理される。次いで確率マップは、例えば半透過的に、WSIまたはその一部の上に重ねて、病理像および確率マップが一緒に見られるようにすることができる。その意味において、確率マップは病理像上のオーバーレイ画像として使用される。CNNによって解析されるパッチは、同じ倍率である場合もあれば、異なるサイズの物理的面積の試料組織に対応するように異なる倍率(例えば、5×、20×、50×など)が混在する場合もある。異なる倍率により、WSIが取得された物理的倍率や、より高い倍率(すなわち、より高い解像度)の物理的画像をデジタル縮小することから得られる有効な倍率に対応することができる。
図1Aは、本発明のニューラルネットワークアーキテクチャーの概略図である。C1、C2、・・・C10層は畳み込み層である。D1、D2、D3、D4、D5、およびD6層は転置畳み込み(すなわち、逆畳み込み)層である。ある特定の層を相互接続する線は、畳み込み(C)層と逆畳み込み(D)層との間のスキップ接続を示す。スキップ接続は、より大きい次元でより浅い深さの層(「より大きい」および「より浅い」とは、より小さい添数の畳み込み層を意味する)からのローカルな特徴が、最終(すなわち、最も小さく最も深い)畳み込み層からのグローバルな特徴と組み合わされることを可能にする。これらのスキップ接続は、より正確な輪郭を提供する。各々がパッチの幅および高さを2倍低減するのに使用されているマックスプール層は、C2、C4、およびC7層の後に存在し、概略図に直接的には示されていないが、パッチの結果的なサイズ低減を介した暗示により示されている。本発明のニューラルネットワークのいくつかの実施形態において、マックスプール層は、完全畳み込みネットワークをもたらす1×1畳み込みで置き換えられている。
ニューラルネットワークの畳み込み部分は以下の層を順に有する。入力層(RGB入力画像パッチ)、2つの畳み込み層C1、C2、第1のマックスプール層(示されず)、2つの畳み込み層C3、C4、第2のマックスプール層(図示せず)、3つの畳み込み層C5、C6、C7、および、第3のマックスプール層(図示せず)。第2および第3のマックスプール層からの出力は、それぞれC5層およびC8層への通常の接続に加えて、スキップ接続を用いて逆畳み込み層に直接的に接続している。
次いで、最終畳み込み層C10、第2のマックスプール層(すなわち、C4層の後の層)からの出力、および第3のマックスプール層(すなわち、C7層の後の層)からの出力は、それぞれ、別々の「逆畳み込み層」の配列に接続している。逆畳み込み層の配列は、これらを拡大して入力(画像)パッチと同じサイズに戻し、すなわち、畳み込み特徴マップを、入力画像パッチと同じ幅および高さを有し、かつ検出対象となる組織クラス(すなわち、非腫瘍タイプおよび1つ以上の腫瘍タイプ)の数と等しいチャネル数(すなわち、特徴マップの数)を有する特徴マップに変換する。第2のマックスプール層については、1段階のみの逆畳み込みが必要とされるため、D6層への直接リンクが見られる。第3のマックスプール層については、中間の逆畳み込み層D4を経由してD5層に到達するために2段階の逆畳み込みが必要とされる。最も深い畳み込み層C10については、D1およびD2を経由してD3層に至る3段階の逆畳み込みが必要とされる。結果は、入力パッチに等しいサイズの3つのアレイD3、D5、D6である。
図1Aに示されたものの簡略化された(ただし、おそらくはより低性能の)バージョンであれば、スキップ接続を省略してもよい。この場合、D4、D5、およびD6層は存在せず、出力パッチはD3層のみから計算されることになる。
図1Bは、図1Aのニューラルネットワークアーキテクチャーにおける最終ステップがどのように行われるかをより詳細に示している。すなわち、グローバルな特徴マップ層D3およびローカルな特徴マップ層D5、D6は組み合わされて、入力画像パッチの各ピクセルに対する個別クラスを予測する特徴マップを生成する。具体的には、図1Bは、最終の3つの転置畳み込み層D3、D5、およびD6がどのように腫瘍クラス出力パッチに対し処理されるかを示している。
ここで、上記で説明されているプローチが、どのように現在デジタル病理学で使用されている既知のCNNと異なるかについて論じる。この既知のCNNは、複数の利用可能なクラスから選択された1つのクラスを各画像パッチに割り当てる。このようなタイプのCNNの例は、Wang et al 2016[1]、Liu et al 2017[4]、Cruz-Roa et al 2017[8]、およびVandenberghe et al 2017[9]による論文に見られる。しかし、発明者らが先ほど説明した内容は、所与の画像パッチ内で、複数の利用可能なクラスから選択された1つのクラスが、あらゆるピクセルに割り当てられるということである。そのため、各画像パッチに対し単一のクラスラベルを生成する代わりに、本発明のニューラルネットワークは所与のパッチの各個別ピクセルに対しクラスラベルを出力する。本発明の出力パッチは、入力パッチと1対1のピクセル対ピクセル対応を有し、出力パッチ内の各ピクセルは複数の利用可能なクラス(非腫瘍、腫瘍1、腫瘍2、腫瘍3など)のうちの1つを入力パッチに割り当てている。
このような既知のCNN[1、4、8、9]において、単一のクラスを各パッチに割り当てるには、一連の畳み込み層が用いられ、次いで1つまたは複数の完全接続層が用いられ、次いで検出対象のクラスと同じ数の値を有する出力ベクトルが用いられる。予測されたクラスは、出力ベクトルにおける最大値の位置により決定される。
個別ピクセルのクラスを予測するために、本発明のCNNは畳み込み層の後に異なるアーキテクチャーを使用する。一連の完全接続層の代わりに、発明者らは、畳み込み層の後に一連の転置畳み込み層を加えている。完全接続層は、このアーキテクチャーから取り除かれる。各転置畳み込み層は、特徴マップの幅および高さを2倍にし、同時にチャネル数を半分にする。このようにして、特徴マップは拡大されて入力パッチのサイズに戻る。
加えて、予測を改善するために、発明者らは、Long et al 2015[10](当該文献の全内容は参照により本明細書に援用される)で説明されているようなスキップ接続を使用する。
スキップ接続は、最終畳み込み層C10からの拡大によってなされた粗雑な予測を改善するために、より浅い特徴を使用する。図1AのD5層およびD6層に含まれるスキップ接続からのローカルな特徴は、最終畳み込み層からの図1AのD3層に含まれるグローバルな特徴を拡大することにより生成された特徴とつなぎ合わされる。次いで、グローバルおよびローカルな特徴層D3、D5、およびD6はつなぎ合わされて、図1Bに示されるような組み合わされた層になる。
図1Bのつなぎ合わされた層から(または代替的に、スキップ接続が使用されない場合は最終逆畳み込み層D3から)、組み合わされた層の1×1畳み込みによってチャネル数がクラス数にマッチするように減らされる。次いで、この分類層上でのソフトマックス操作が、組み合わされた層における値を確率に変換する。出力パッチ層は、N×N×K(Nは入力パッチの幅および高さのピクセル数、Kは検出されているクラス数)のサイズを有する。したがって、画像パッチ内の任意のピクセルPに対しサイズKの出力ベクトルVが存在する。次いで、各ピクセルPに対し、その対応するベクトルVにおける最大値の位置により、一意のクラスが割り当てられ得る。
このようにして、CNNは各ピクセルに対し、非癌性である、またはいくつかの異なる癌(腫瘍)タイプのうちの1つ以上に属するものとしてラベル付けする。特に関心対象となる癌は乳癌であるが、当該方法はその他の癌、例えば、膀胱、結腸、直腸、腎臓、血液(白血病)、子宮内膜、肺、肝臓、皮膚、膵臓、前立腺、脳、脊椎、および甲状腺の癌の組織像にも適用可能である。
発明者らが知る限りでは、乳癌の輪郭描画および分類のためにこのようなアプローチがCNNで使用されたのは本出願が初めてである。発明者らは、発明者らが認識する過去のコンピュータ自動化法に比べて、輪郭描画がグラウンドトゥルースとみなされる病理医の描画により近いことから、このアプローチによる性能改善が存在するものと判断した。
本発明の特定のニューラルネットワークに実施形態は、ある特定の固定ピクセル寸法を有する入力画像に対し機能するように構成されている。そのため、前処理ステップとして、訓練および予測の両方について、所望のピクセル寸法、例えば、N×N×nピクセルを有するWSIからパッチが抽出される(各物理的位置が3原色に関連する3つのピクセルを有する場合、n=3であり、この3原色は、WSIが従来的な可視光顕微鏡により得られるカラー画像であるときは、典型的にはRGBである)。(後にさらに言及されるように、「n」は、2つ以上のカラーWSIが組み合わされた場合、複合化されたWSIの数の3倍であり得る。)さらに「n」は、単一のモノクロームWSIの場合、1の値を有する。訓練をより高速にするには、この段階で入力パッチのセンタリングおよび正規化も行う。
本発明の好ましいアプローチは、全体のWSI、または少なくとも組織を含むWSIの全体のエリアを処理することであり、そのため、本発明の場合におけるパッチは、少なくともWSIの全体の組織エリアを網羅するタイルである。タイルは、重複なしで接していてもよく、または任意の不一致を考慮してCNNの出力パッチが一緒にスティッチングされるように、例えば、1、2、3、4、5、6、7、8、9、または10ピクセル幅の重複するエッジ周縁領域を有してもよい。しかし、本発明のアプローチは、所望される場合、従来技術におけるように、または病理医によって行われ得るように、WSI全体における同じまたは異なる倍率のパッチのランダム標本に適用することもできる。
本発明のニューラルネットワークは、Simonyan and Zisserman 2014[6]のVGG-16アーキテクチャーに設計が類似している。当該アーキテクチャーは、全ての畳み込みフィルターで非常に小さな3×3カーネルを使用する。マックスプーリングは、小さな2×2ウインドウおよび2のストライドで実行される。VGG-16アーキテクチャーが畳み込み層の後に一連の完全接続層を有するのに対し、発明者らは、畳み込み層の後に「逆畳み込み」(より正確には転置畳み込み)の配列を加えてセグメンテーションマスクを生成する。意味上のセグメンテーションにおけるこのタイプのアップサンプリングは、Long et al 2015[10](当該文献の全内容が参照により本明細書に援用される)による自然画像処理で過去に使用されている。
各逆畳み込み層は、入力特徴マップの幅および高さの寸法を2倍に拡大する。これはマックスプール層の縮小効果を相殺し、その結果、入力画像と同じサイズのクラス特徴マップをもたらす。各畳み込みおよび逆畳み込み層からの出力は、非線形活性化層によって変換される。現時点では、非線形活性化層は正規化線形関数
Figure 0007384960000001
を使用する。異なる活性化関数、例えば、RELU、リーキーRELU、ELUなどを所望に応じて使用してもよい。
提唱される方法は、変更なしで任意の所望される数の組織クラスに適用することができる。制約は、単に、ニューラルネットワーク内で反復することが望ましい方式で分類され適切な訓練データの可用性である。さらなる乳房病態の例は、浸潤性小葉癌または浸潤性腺管癌であり、すなわち、従前の例の単一の浸潤性腫瘍クラスは、複数の浸潤性腫瘍クラスで置き換えることができる。
ソフトマックス回帰層(すなわち、多項ロジスティック回帰層)をチャネルパッチの各々に適用して、特徴マップにおける値を確率に変換する。
ソフトマックス回帰によるこの最終変換の後、最終特徴マップ内のチャネルCの位置(x,y)における値は、入力画像パッチ内の位置(x,y)におけるピクセルが、チャネルCにより検出される腫瘍タイプに属する確率P(x,y)を含む。
畳み込みおよび逆畳み込み層の数は、所望に応じて増減させることができ、またニューラルネットワークを稼働するハードウェアのメモリ制限を受けることが理解されよう。
発明者らは、ミニバッチ勾配降下を用いてニューラルネットワークを訓練する。学習率は、指数関数的減衰を用いて0.1の初期比率から減少する。発明者らは、Srivastava et al 2014[2017](当該文献の全内容が参照により本明細書に援用される)により説明されている「ドロップアウト」手順を使用することにより、ニューラルネットワーク過学習を防止している。ネットワークの訓練は、いくつかの利用可能なディープラーニングフレームワークのうちのいずれか1つを用いてGPU、CPU、またはFPGA上で行うことができる。本発明の実施形態についてはGoogle Tensorflowを使用しているが、Microsoft CNTKのような別のディープラーニングフレームワークで同じニューラルネットワークを実装することも可能であったと考えられる。
ニューラルネットワークは、N×N×K(Nは入力パッチの幅および高さのピクセル数、Kは検出されているクラス数)のサイズの確率マップを出力する。これらの出力パッチは、共にスティッチングしてW×H×K(WおよびHは、パッチに分割される前の元のWSIの幅および高さ)のサイズの確率マップに戻される。
次いで確率マップは、ラベル画像内の各位置(x,y)における最大確率と共にクラスインデックスを記録することにより、W×Hラベル画像に折り畳むことができる。
本発明の実施形態では、本発明のニューラルネットワークは、全てのピクセルを3つのクラス、非腫瘍、浸潤性腫瘍、および、上皮内腫瘍のうちの1つに割り当てている。
複数の腫瘍クラスが使用される場合、出力画像は、非腫瘍および腫瘍(すなわち、複数の腫瘍クラスが組み合わされる)という、よりシンプルな二項分類に後処理されてもよい。二項分類は、基礎データから画像を作成する際にオプションとして使用することができ、一方で複数クラス腫瘍分類は保存データ内で保持される。
本発明の特定の実施形態に対する上記の説明では、CNNを用いた具体的なアプローチに専念してきたが、本発明のアプローチは、多種多様な異なるタイプの畳み込みネットワークで実装することができるものと理解されよう。概して、畳み込みを使用して複雑性が増大する特徴を検出し、次に、転置畳み込み(「逆畳み込み」)を使用して特徴マップを拡大し入力画像の幅および高さに戻す、任意のニューラルネットワークが適しているはずである。
実施例1
図2はカラーで示され、パッチレベル予測(例えば、CamelyonコンペティションにおいてGoogleのCNNソリューション(Liu et al. 2017[4])により生成された予測)と、本発明のCNNにより生成されたピクセルレベル予測と、の間の違いを示している。
図2のタイルAおよびBは、Liu et al 2017[4]の図7から複製したものであり、タイルCおよびDは、本発明に従う例における同等のタイルである。
タイルAはH&E染色WSIからのパッチであり、右下象限にある濃い紫色の大きめの細胞は腫瘍であり、一方濃い紫色の小さめの細胞はリンパ球である。
タイルBは、Liu et al 2017[4]のCNNにより生成された腫瘍確率ヒートマップであり、著者は、このヒートマップが腫瘍細胞を正確に識別し、一方で結合組織およびリンパ球は無視すると述べている。
タイルCは、本発明を具体化するCNN法が適用されている一例のWSIからの未加工の画像パッチである。未加工の画像に加えて、タイルCは、病理医により手作業で描画された輪郭(赤色実線の境界線)も示している。加えて、タイルDに関連して、タイルCは本発明のCNN法からの結果も示している(ピンク色の境界線を伴いピンク色で色付けされた第1のエリアは第1の腫瘍タイプ、すなわち、タイルDにおいて赤色で示される腫瘍タイプに対応し、ピンク色の境界線を伴い黄色で色付けされた第2エリアは、第2の腫瘍タイプ、すなわち、タイルDにおいて青色に色付けされた腫瘍タイプに対応する)。
タイルDは、本発明のCNNにより生成された腫瘍確率ヒートマップである。本発明のピクセルレベル予測アプローチが、どのように滑らかな境界輪郭を伴ったエリアを生成するかが分かる。本発明のヒートマップにおいては、異なる(恣意的に選択される)色は異なるクラスを示しており、すなわち、緑色は非腫瘍、赤色は第1の腫瘍タイプ、青色は第2の腫瘍タイプを示す。
実施例2
図3はカラーで示され、入力RGB画像パッチ(左側のタイルA)の例と、最終出力腫瘍確率ヒートマップ(右側のタイルB)と、を示している。
タイルAは追加的に、病理医の手作業による浸潤性腫瘍(赤色の輪郭)の輪郭描画と、加えて、タイルBで別個に示されているような、本発明のニューラルネットワークの予測におけるオーバーレイ(ピンク色および黄色に色付けされたエリア)と、を示している。
タイルBは、本発明のCNNにより生成された腫瘍確率ヒートマップである。本発明のヒートマップにおいては、異なる(恣意的に選択される)色は異なるクラスを示しており、すなわち、緑色は非腫瘍、赤褐色は浸潤性腫瘍(タイルAではピンク色で示されている)、青色は上皮内腫瘍(タイルAでは黄色で示されている)を示す。ここでもまた、本発明のピクセルレベル予測アプローチが、どのように滑らかな境界輪郭を有するエリアを生成するかが分かる。さらに、どのようにCNN予測が病理医の手作業によるマーキングと両立するかが分かる。加えて、CNNは、浸潤性腫瘍と非浸潤性(上皮内)腫瘍との間のさらなる区別をもたらす。これは、病理医が行わなかったものであり、組織を、所望に応じ、かつ臨床的に意味のある任意の数の異なるタイプに分類するようにプログラムおよび訓練することができる、本発明のマルチチャネルCNN設計の本質的部分である。
取得および画像処理
当該方法の出発点は、組織試料が切片化(すなわち、スライス)され、隣接する切片が異なる染色物質で染色されていることである。隣接する切片は、厚さが薄いため非常に類似した組織構造を有するが、異なる層にあるため同一ではない。
例えば、各々が異なる染色物質(例えば、ER、PR、p53、HER2、H&E、およびKi-67)を伴った5つの隣接するセクションが存在し得る。次いで、各切片の顕微鏡像を取得する。隣接する切片は非常に類似した組織形状を有するが、染色物質は異なる特徴、例えば、核、細胞質、全般的コントラスト強調による全ての特徴などを強調する。
次いで異なる画像をアラインメントし、ワープまたは別の方法で前処理して、ある画像上の任意の所与の特徴の座標を他の画像上の同じ特徴にマッピングする。マッピングは、わずかに異なる倍率、顕微鏡におけるスライドアラインメントの相違またはスライド上の組織スライスのマウントの相違による向きの相違などのような因子に起因する、画像間の任意の相違に対処する。
別々に染色された隣接する切片を含むセットにおける異なるWSI間の座標マッピングについては、WSIを単一の複合WSIにマージすることができ、この複合WSIからCNNによる処理用に複合パッチを抽出することができることに留意されたい。このような複合パッチは、N×N×3m(「m」は、セットを形成する複合化WSIの数)の寸法を有すると考えられる。
次いで、画像に対する何らかの標準的処理が行われる。このような画像処理ステップは、WSIレベルで、または個別の画像パッチのレベルで行われ得る。CNNがカラー画像ではなくモノクロームで機能するように構成されている場合、画像はカラーからグレースケールに変換され得る。画像は、コントラスト強調フィルターを適用することにより修正することができる。次いで、何らかのセグメンテーションを実行して、画像のセットにおける共通の組織エリアを識別するか、または単に組織に関係しないバックグラウンドを拒絶する。セグメンテーションは、以下の画像処理技法のいずれかまたは全てを伴い得る。
シード組織エリアを識別するための分散ベース解析
適応閾値処理
形態学的操作(例えば、ブロブ解析)
外形識別
近接ヒューリスティック規則に基づく外形マージ
不変画像モーメントの計算
エッジ抽出(例えば、ソーベルエッジ検出)
曲率フローフィルタリング
連続切片間の強度変動を排除するヒストグラムマッチング
多重解像度剛性/アフィン画像レジストレーション(勾配降下オプティマイザー)
非剛性変形/変換
スーパーピクセルクラスタリング
また、上記の種類の画像処理ステップは、WSI上またはパッチ抽出後の個別のパッチ上で行われ得ることが理解されよう。場合によっては、パッチ抽出の前後両方で同じタイプの画像処理を行うことが有用な場合もある。すなわち、パッチ抽出の前にWSI上で行われ得る画像処理もあれば、WSIからの抽出後のパッチ上で行われ得る画像処理もある。
このような画像処理ステップは、例として説明されるものであり、いかなる形でも本発明の範囲を限定するものとして解釈されるべきではない。例えば、十分な処理能力が利用可能であれば、CNNはカラー画像に対し直接動作できると考えられる。
訓練および予測
図4は、CNNの訓練に関係するステップを示す流れ図である。
ステップS40では、腫瘍を発見し、輪郭描画し、分類するために臨床医によりアノテーションされた処理用のWSIを含む訓練データが検索される。臨床医のアノテーションはグラウンドトゥルースデータを表す。
ステップS41において、WSIは、CNN向けの入力画像パッチである画像パッチに分解される。すなわち、画像パッチはWSIから抽出される。
ステップS42において、画像パッチは上記で説明されているように前処理される。(代替的に、または追加として、ステップS41の前にWSIが上記で説明されているように前処理される場合も考えられる。)
ステップS43において、CNN重み(すなわち、層間の重み)向けの初期値が設定される。
ステップS44において、入力画像パッチのバッチの各々がCNNに入力され、図1Aおよび1Bに関連して上記でさらに説明されているように、ピクセルごとにパッチを発見し、輪郭描画し、分類するように処理される。本発明の方法は各腫瘍(腫瘍タイプ)ピクセルを識別するものであるから、ここでの輪郭描画(outline)という用語は、必ずしも厳密には技術的に正しい用語ではない。そのため、CNNが各腫瘍タイプにおける腫瘍エリアを決定するという方がより正確かもしれない。
ステップS45において、CNN出力画像パッチがグラウンドトゥルースデータと比較される。これはバッチごとに行われてもよい。代替的に、全体のWSIを網羅するパッチが抽出された場合、これはWSIレベルで行われても、パッチの連続したバッチから構成されたWSIのサブエリア(例えば、WSIの1象限)において行われてもよい。このような変形形態では、出力画像パッチは再び集められて、全体のWSIまたはその連続した部分のための確率マップに構築することができ、確率マップは、コンピュータによりグラウンドトゥルースデータと比較することができ、さらに、確率マップがWSIに対し半透明のオーバーレイとしてディスプレイ上に提示される場合は、ユーザーにより視覚的に比較することもできる。
ステップS46において、次いでCNNはこの比較から学習し、例えば、勾配降下アプローチを用いて、CNN重みが更新される。このようにして学習は、図4に示されるように、処理フロー内のリターンループによって訓練データの反復処理にフィードバックされ、CNN重みを最適化することができる。
訓練の後、CNNは、いかなるグラウンドトゥルースデータにも依存することなく、すなわち、予測のためのライブ使用において、WSIに適用され得る。
図5は、CNNを用いた予測に関係するステップを示す流れ図である。
ステップS50において、1つ以上のWSIが、例えば、検査情報システム(LIS)またはその他の組織学的データリポジトリから、処理のために検索される。WSIは(例えば、上記で説明されているように)前処理される。
ステップS51において、画像パッチは各WSIから抽出される。パッチは全体のWSIを網羅しても、ランダムまたは非ランダム選択であってもよい。
ステップS52において、画像パッチは(例えば、上記で説明されているように)前処理される。
ステップS53において、入力画像パッチのバッチの各々がCNNに入力され、図1Aおよび1Bに関連して上記でさらに説明されているように、ピクセルごとにパッチを発見し、輪郭描画し、分類するように処理される。次いで、出力パッチは、入力画像パッチが抽出されたWSIのための確率マップとして再び集められる。確率マップは、デジタル処理においてコンピュータ装置によりWSIと比較することができ、さらに、確率マップが、例えば、WSIに対する半透明のオーバーレイとして、またはWSIの横に、ディスプレイ上に提示される場合は、ユーザーにより視覚的に比較することもできる。
ステップS54において、腫瘍エリアはフィルタリングされ、偽陽性の可能性がある腫瘍、例えば、小さすぎるエリアまたはエッジアーティファクトの可能性があるエリアが除外される。
ステップS55において、スコア付けアルゴリズムが実行される。スコア付けは細胞固有であり、スコアは、腫瘍ごとに集められ得る、および/またはさらにWSI(もしくはWSIのサブエリア)ごとに集められ得る。
ステップS56では、結果が、例えば、アノテーションされたWSIを適切な高解像度モニターに表示することにより、診断のために病理医または他の関連技量を有する臨床医に対し提示される。
ステップS57において、CNNの結果、すなわち、確率マップデータおよび任意選択でCNNパラメーターに関係するメタデータは、病理医により追加された任意の追加的診断情報と共に、CNNにより処理されたWSIまたはWSIのセットを含む患者データファイルとリンクするような方法で保存される。このようにして、LISまたはその他の組織学的データリポジトリ内の患者データファイルにCNN結果が供給される。
コンピューティングプラットフォーム
提唱される画像処理は、多様なコンピューティングアーキテクチャー、詳細には、ニューラルネットワーク向けに最適化された、CPU、GPU、TPU、FPGA、および/またはASICに基づき得るコンピューティングアーキテクチャー上で行うことができる。いくつかの実施形態において、ニューラルネットワークは、Nvidia Corporation(Santa Clara,California)製のNvidia GPU(例えば、Tesla K80 GPU)上で稼働するGoogleのTensorflowソフトウェアライブラリを用いて実装される。他の実施形態において、ニューラルネットワークは一般のCPU上で稼働し得る。より高速な処理は、CNN計算を実行する目的に合わせて設計されたプロセッサ、例えば、Jouppi et al 2017[11](当該文献の全内容が参照により本明細書に援用される)に開示されているTPUによって得ることができる。
図6はJouppi et al 2017[11]のTPUを示しており、これはJouppiの図1を簡略化して再現したものである。TPU 100は、符合ありまたはなしの整数に対し8ビットの乗算および加算を実行することができる256×256 MACを含むシストリック行列乗算ユニット(MMU:matrix multiplication unit)102を有する。MMUの重みは、重みFIFOバッファ104を通じて供給され、バッファ104は、適切なメモリインターフェイス108経由でオフチップ8GB DRAM形態のメモリ106からの重みを読み取る。ユニファイドバッファ(UB)110は、中間結果を格納するために提供される。MMU 102は、重みFIFOインターフェイス104および(シストリックデータセットアップユニット112経由で)UB 110からの入力を受信するように接続し、MMU処理の16ビット生成物を蓄積ユニット114に出力する。起動ユニット116は、蓄積ユニット114内で保持されているデータに対し非線形関数を実行する。正規化ユニット118およびプーリングユニット120によるさらなる処理の後、中間結果は、データセットアップユニット112経由でMMU 102に供給するためにUB 110に送信される。プーリングユニット120は、所望に応じて最大プーリング(すなわち、マックスプーリング)または平均プーリングを実行することができる。プログラマブルDMAコントローラー122は、TPUのホストコンピュータおよびUB 110に対しデータを転送する、またはこれらからのデータを転送する。TPU命令は、ホストコンピュータからホストインターフェイス124および命令バッファ126を経由してコントローラー122に送信される。
ニューラルネットワークの稼働に使用するコンピューティング能力は、CPU、GPU、またはTPUに基づくか否かにかかわらず、例えば、後述される臨床ネットワーク内でローカル管理されても、データセンターでリモート管理されてもよいことが理解される。
提唱されるコンピュータ自動化法は、検査情報システム(LIS)の文脈で機能し、この検査情報システムは、典型的にはより大きな臨床ネットワーク環境の一部、例えば、病院情報システム(HIS)または画像保存通信システム(PACS)の一部である。LISにおいて、WSIはデータベース内で、典型的には、個別の患者の電子カルテを含む患者情報データベース内で保持される。WSIは、スライドに載せた染色された組織試料から撮像される。WSIを取得する顕微鏡はバーコードリーダーを装備しているため、このスライドは印刷バーコードラベルを有し、これによってWSIは適切なメタデータでタグ付けされる。ハードウェアの観点からは、LISは従来的なコンピュータネットワークであり、例えば、所望に応じて有線および無線の接続を有するローカルエリアネットワーク(LAN)である。
図7は、本発明の実施形態と共に使用され得るコンピュータネットワークの一例を示している。ネットワーク150は、病院152内のLANを備える。病院152は複数のワークステーション154が装備されており、これらの各々が、ローカルエリアネットワーク経由で、関連するストレージデバイス158を有する病院コンピュータサーバー156にアクセスできる。LIS、HIS、またはPACSアーカイブはストレージデバイス158上に格納されており、アーカイブ内のデータにはワークステーション154のいずれからもアクセスすることができる。ワークステーション154のうちの1台以上は、本明細書で先に説明したような画像生成方法をコンピュータで実装するためのグラフィックスカードおよびソフトウェアにアクセスできる。ソフトウェアは、特定の1台または各々のワークステーション154でローカルに格納される場合もあれば、またはリモートに格納され、必要なときにネットワーク150を介してワークステーション154にダウンロードされる場合もある。他の例では、本発明を具体化する方法は、ワークステーション154が端末として動作するコンピュータサーバー上で実行することができる。例えば、ワークステーションは、所望の組織像データセットを定義するユーザー入力を受信し、得られた画像を表示すると同時にCNN解析がシステム内の他の場所で実行されるように構成することができる。また、複数の組織学的および他の医療用撮像装置160、162、164、166が病院コンピュータサーバー156に接続している。デバイス160、162、164、166で収集された画像データは、ストレージデバイス156上のLIS、HIS、またはPACSアーカイブに直接格納することができる。したがって、組織像は、対応する組織像データが記録された直後に閲覧および処理することができる。ローカルエリアネットワークは、病院インターネットサーバー170によりインターネット168に接続しており、これによりLIS、HIS、またはPACSアーカイブへのリモートアクセスが可能になる。これは、データのリモートアクセスや、例えば、患者が転院する場合に、または外部調査の実施を可能にするために、病院間でデータを転送するのに有用である。
図8は、本明細書で説明されている様々な実施形態と共に使用され得るコンピューティング装置500の一例を示すブロック図である。例えば、コンピューティング装置500は、上述のLISまたはPACSシステムにおけるコンピューティングノード、例えば、CNN処理が適切なGPU、または図6に示されるTPUと共に行われるホストコンピュータとして使用することができる。
コンピューティング装置500は、サーバーもしくは任意の従来的なパーソナルコンピュータであってもよく、または有線もしくは無線のデータ通信が可能な任意の他のプロセッサ作動可能なデバイスであってもよい。当業者には明らかであろうように、その他のコンピューティング装置、システム、および/またはアーキテクチャーも、有線または無線のデータ通信が不可能なデバイスを含めて使用することができる。
コンピューティング装置500は、好ましくは1つ以上のプロセッサ、例えば、プロセッサ510を含む。プロセッサ510は、例えば、CPU、GPU、TPU、またはこれらのアレイもしくは組み合わせ、例えば、CPUとTPUとの組み合わせ、またはCPUとGPUとの組み合わせであり得る。追加のプロセッサが提供されてもよく、例えば、入力/出力を管理するための補助プロセッサ、浮動小数点の数学演算を実行するための補助プロセッサ(例えば、TPU)、信号処理アルゴリズムの高速実行に適したアーキテクチャーを有する専用マイクロプロセッサ(例えば、デジタル信号プロセッサ、画像プロセッサ)、メイン処理システムに従属するスレーブプロセッサ(例えば、バックエンドプロセッサ)、デュアルもしくはマルチプロセッサシステム用の追加のマイクロプロセッサもしくはコントローラー、またはコプロセッサが提供されてもよい。このような補助プロセッサは、別々のプロセッサであっても、プロセッサ510と一体化していてもよい。コンピューティング装置500と共に使用され得るCPUの例は、Pentiumプロセッサ、Core i7プロセッサ、およびXeonプロセッサであり、これら全てはIntel Corporation(Santa Clara,California)から入手可能である。コンピューティング装置500と共に使用され得るGPUの一例は、Nvidia Corporation(Santa Clara,California)のTesla K80 GPUである。
プロセッサ510は通信バス505に接続している。通信バス505は、コンピューティング装置500のストレージと他の周辺構成要素との間の情報転送を容易にするためのデータチャネルを含むことができる。通信バス505はさらに、データバス、アドレスバス、およびコントロールバス(図示せず)を含む、プロセッサ510との通信に使用される信号のセットを提供することができる。通信バス505は、任意の標準または非標準のバスアーキテクチャーを備えることができ、例えば、industry standard architecture(ISA)、extended industry standard architecture(EISA)、Micro Channel Architecture(MCA)、peripheral component interconnect(PCI)ローカルバス、またはInstitute of Electrical and Electronics Engineers(IEEE)により公表された規格(IEEE 488汎用インターフェイスバス(GPIB)、IEEE 696/S-100などを含む)に準拠するバスアーキテクチャーを備えることができる。
コンピューティング装置500は、好ましくはメインメモリ515を含み、また二次メモリ520も含むことができる。メインメモリ515は、プロセッサ510上で実行するプログラム、例えば、上記で論じた機能および/またはモジュールのうちの1つ以上のための命令およびデータのストレージを提供する。メモリに格納されプロセッサ510により実行されるコンピュータ可読プログラム命令は、アセンブラー命令、命令セットアーキテクチャー(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定(state-setting)データ、集積回路用の構成データ、または1つ以上のプログラミング言語(以下に限定されないが、Smalltalk、C/C++、Java、JavaScript、Perl、Visual Basic、NETなどを含む)の任意の組み合わせで書かれた、および/またはそこからコンパイルされたソースコードもしくはオブジェクトコードであり得ることを理解されたい。メインメモリ515は、典型的には、ダイナミックランダムアクセスメモリ(DRAM)および/またはスタティックランダムアクセスメモリ(SRAM)のような半導体ベースのメモリである。その他の半導体ベースのメモリタイプとしては、例えば、シンクロナスダイナミックランダムアクセスメモリ(SDRAM)、ラムバスダイナミックランダムアクセスメモリ(RDRAM)、強誘電体ランダムアクセスメモリ(FRAM)など(リードオンリーメモリ(ROM)を含む)が挙げられる。
コンピュータ可読プログラム命令は、ユーザーのコンピュータ上で完全に、ユーザーのコンピュータ上で部分的に、スタンドアロンソフトウェアパッケージとして、ユーザーのコンピュータ上で部分的に、およびリモートコンピュータ上で部分的に、またはリモートコンピュータもしくはサーバー上で完全に実行することができる。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)もしくは広域ネットワーク(WAN)を含む任意のタイプのネットワークを通じてユーザーのコンピュータに接続することができ、または接続は、(例えば、インターネットサービスプロバイダーを用いてインターネットを通じて)外部コンピュータに対し行うことができる。
二次メモリ520は、任意選択で内部メモリ525および/またはリムーバブル媒体530を含むことができる。リムーバブル媒体530は、任意の周知の方式で読み取られおよび/または書き込まれる。リムーバブル記憶媒体530は、例えば、磁気テープドライブ、コンパクトディスク(CD)ドライブ、デジタル多用途ディスク(DVD)ドライブ、その他の光学ドライブ、フラッシュメモリドライブなどであり得る。
リムーバブル記憶媒体530は、コンピュータ実行可能コード(すなわち、ソフトウェア)および/またはデータを格納した非一時的コンピュータ可読媒体である。リムーバブル記憶媒体530に格納されたコンピュータソフトウェアまたはデータは、プロセッサ510による実行のためにコンピューティング装置500に読み取られる。
二次メモリ520は、コンピュータプログラムまたはその他のデータもしくは命令がコンピューティング装置500にロードされるのを可能にするための他の類似の要素を含むことができる。このような手段は、例えば、外部記憶媒体545と、ソフトウェアおよびデータが外部記憶媒体545からコンピューティング装置500に転送されるのを可能にする通信インターフェイス540とを含み得る。外部記憶媒体545の例としては、外部ハードディスクドライブ、外部光ドライブ、外部光磁気ドライブなどが挙げられ得る。二次メモリ520のその他の例としては、半導体ベースのメモリ、例えば、プログラマブルリードオンリーメモリ(PROM)、消去可能プログラマブルリードオンリーメモリ(EPROM)、電気的消去可能リードオンリーメモリ(EEPROM)、またはフラッシュメモリ(EEPROMに類似するブロック指向メモリ)が挙げられ得る。
上述のように、コンピューティング装置500は通信インターフェイス540を含むことができる。通信インターフェイス540は、ソフトウェアおよびデータがコンピューティング装置500と、外部デバイス(例えば、プリンター)、ネットワーク、またはその他の情報源と、の間で転送されるのを可能にする。例えば、コンピュータソフトウェアまたは実行可能コードを、通信インターフェイス540経由でネットワークサーバーからコンピューティング装置500に転送することができる。通信インターフェイス540の例としては、ビルトインネットワークアダプタ、ネットワークインターフェイスカード(NIC)、Personal Computer Memory Card International Association(PCMCIA)ネットワークカード、カードバスネットワークアダプタ、無線ネットワークアダプタ、ユニバーサルシリアルバス(USB)ネットワークアダプタ、モデム、ネットワークインターフェイスカード(NIC)、無線データカード、通信ポート、赤外線インターフェイス、IEEE 1394ファイアワイヤー、またはシステム550をネットワークもしくは別のコンピューティングデバイスとインターフェイス接続させることが可能な任意の他の装置が挙げられる。通信インターフェイス540は、業界で公表されたプロトコル規格、例えば、イーサネットIEEE 802規格、ファイバーチャネル、デジタル加入者線(DSL)、非同期デジタル加入者線(ADSL)、フレームリレー、非同期転送モード(ATM)、統合デジタルサービスネットワーク(ISDN)、パーソナル通信サービス(PCS)、トランスミッションコントロールプロトコル/インターネットプロトコル(TCP/IP)、シリアルラインインターネットプロトコル/ポイントツーポイントプロトコル(SLIP/PPP)などを実装することが好ましいが、カスタマイズされた、または非標準的なインターネットプロトコルを実装してもよい。
通信インターフェイス540経由で転送されるソフトウェアおよびデータは、概して電気通信信号555の形態をとる。このような信号555は、通信チャネル550経由で通信インターフェイス540にもたらされ得る。1つの実施形態において、通信チャネル550は、有線もしくは無線のネットワーク、または任意の多様な他の通信リンクであり得る。通信チャネル550は信号555を運搬し、多様な有線または無線の通信手段を用いて実装することができ、このような通信手段には、単にいくつかの例を挙げれば、電線もしくはケーブル、光ファイバー、従来的な電話回線、携帯電話リンク、無線データ通信リンク、無線周波数(「RF」)リンク、または赤外線リンクが含まれる。
コンピュータ実行可能コード(すなわち、コンピュータプログラムまたはソフトウェア)は、メインメモリ515および/または二次メモリ520に格納される。また、コンピュータプログラムは、通信インターフェイス540経由で受信し、メインメモリ515および/または二次メモリ520に格納することもできる。このようなコンピュータプログラムが実行されると、コンピューティング装置500は、本明細書の他の箇所で説明されている本開示の実施形態の様々な機能を実行することが可能になる。
本文書において、「コンピュータ可読媒体」という用語は、コンピュータ実行可能コード(例えば、ソフトウェアおよびコンピュータプログラム)をコンピューティング装置500に提供するのに使用される任意の非一時的コンピュータ可読記憶媒体を指すために使用される。このような媒体の例としては、メインメモリ515、二次メモリ520(内部メモリ525、リムーバブル媒体530、および外部記憶媒体545を含む)、ならびに通信インターフェイス540と通信可能に結合した任意の周辺デバイス(ネットワーク情報サーバーまたはその他のネットワーク装置を含む)が挙げられる。これらの非一時的コンピュータ可読媒体は、実行可能コード、プログラミング命令、およびソフトウェアをコンピューティング装置500に提供するための手段である。[90]ソフトウェアを用いて実装される1つの実施形態において、ソフトウェアは、コンピュータ可読媒体上に格納し、リムーバブル媒体530、I/Oインターフェイス535、または通信インターフェイス540を介してコンピューティング装置500にロードすることができる。このような実施形態において、ソフトウェアは、電気通信信号555の形態でコンピューティング装置500にロードされる。ソフトウェアは、プロセッサ510によって実行されると、好ましくは、プロセッサ510に本明細書の他の箇所で説明されている特徴および機能を実行させる。
I/Oインターフェイス535は、コンピューティング装置500の1つ以上の構成要素と1つ以上の入力および/または出力デバイスとの間のインターフェイスを提供する。入力デバイスの例としては、以下に限定されないが、キーボード、タッチスクリーン、またはその他のタッチセンシティブデバイス、生体検知デバイス、コンピュータマウス、トラックボール、ペン型ポインティングデバイスなどが挙げられる。出力デバイスの例としては、以下に限定されないが、陰極線管(CRT)、プラズマディスプレイ、発光ダイオードダイオード(LED)ディスプレイ、液晶ディスプレイ(LCD)、プリンター、真空蛍光ディスプレイ(VFD)、表面伝導型電子放出素子ディスプレイ(SED)、電界放出ディスプレイ(FED)などが挙げられる。
コンピューティング装置500は、音声ネットワークおよび/またはデータネットワークを介して無線通信を容易にする任意選択の無線通信構成要素も含む。無線通信構成要素は、アンテナシステム570、無線システム565、およびベースバンドシステム560を備える。コンピューティング装置500において、無線周波数(RF)信号は、無線システム565の管理下でアンテナシステム570により無線で送受信される。
アンテナシステム570は、1つ以上のアンテナと、スイッチング機能を実行してアンテナシステム570に送受信信号経路を提供する1つ以上のマルチプレクサー(図示せず)とを含むことができる。受信経路において、受信されたRF信号は、マルチプレクサーから、受信されたRF信号を増幅し、増幅された信号を無線システム565に送信する低雑音増幅器(図示せず)に結合させてもよい。
無線システム565は、様々な周波数を介し通信するように構成された1つ以上の無線機を備えることができる。1つの実施形態において、無線システム565は、1つの集積回路(IC)内に復調器(図示せず)と変調器(図示せず)とを組み合わせることができる。また、復調器および変調器は別々の構成要素であってもよい。入り経路において、復調器は、RF搬送波信号を取り除いてベースバンド受信音声信号を残し、ベースバンド受信音声信号は無線システム565からベースバンドシステム560に送信される。
受信信号が音声情報を含む場合、ベースバンドシステム560はこの信号を復号し、アナログ信号に変換する。次いで、信号は増幅されスピーカーに送信される。ベースバンドシステム560は、マイクロフォンからのアナログ音声信号も受信する。このようなアナログオーディオ信号はデジタル信号に変換され、ベースバンドシステム560によって符号化される。ベースバンドシステム560は、送信のためのデジタル信号も符号化し、ベースバンド送信音声信号を生成し、これは無線システム565の変調器部分にルーティングされる。変調器は、ベースバンド送信音声信号をRF搬送波信号と混合してRF送信信号を生成し、これはアンテナシステム570にルーティングされ、電力増幅器(図示せず)を通過し得る。電力増幅器は、RF送信信号を増幅しアンテナシステム570にルーティングする。信号は、アンテナシステム570にて送信のためのアンテナポートにスイッチングされる。
ベースバンドシステム560は、中央処理装置(CPU)であり得るプロセッサ510にも結合している。プロセッサ510は、データ記憶領域515および520にアクセスできる。プロセッサ510は、好ましくは、メインメモリ515または二次メモリ520に格納され得る命令(すなわち、コンピュータプログラムまたはソフトウェア)を実行するように構成されている。また、コンピュータプログラムは、ベースバンドプロセッサ560から受信し、メインメモリ510または二次メモリ520に格納するかまたは受信時に実行することもできる。このようなコンピュータプログラムが実行されると、コンピューティング装置500は、本開示の実施形態の様々な機能を実行することが可能になる。例えば、データ記憶領域515または520は、様々なソフトウェアモジュールを含むことができる。
コンピューティング装置はさらに、通信バス505に直接的に取り付けられたディスプレイ575を備え、これは上記で言及したI/Oインターフェイス535に接続した任意のディスプレイの代わりにまたはそれに加えて提供され得る。
また、主にハードウェアにおいて、例えば、特定用途向け集積回路(ASIC)、プログラマブルロジックアレイ(PLA)、またはフィールドプログラマブルゲートアレイ(FPGA)のようなコンポーネントを用いて、様々な実施形態を実装することもできる。本明細書で説明される機能を実行可能なハードウェアステートマシンの実装も、当業者には明らかであろう。また、ハードウェアとソフトウェアの両方の組み合わせを用いて様々な実施形態を実装することもできる。
さらに、当業者は、上記で説明された図面および本明細書で開示されている実施形態と共に説明されている様々な例示的な論理ブロック、モジュール、回路、および方法ステップが、しばしば電子ハードウェア、コンピュータソフトウェア、または両方の組み合わせとして実装され得ることを理解するであろう。このハードウェアおよびソフトウェアの互換性を明確に示すために、様々な例示的な構成要素、ブロック、モジュール、回路、およびステップが、概してその機能性の観点から上記で説明されている。このような機能性がハードウェアとして実装されるのかソフトウェアとして実装されるのかは、特定の用途や、全体のシステムに対して課される設計制約に依存する。当業者は、様々な方法で各々の特定の用途に対し、説明されている機能性を実装することができるが、このような実装の決定は、本発明の範囲からの逸脱を引き起こすものと解釈されるべきではない。加えて、モジュール、ブロック、回路、またはステップ内における機能のグループ化は、説明を容易にするためのものである。特定の機能またはステップは、本発明から逸脱することなく、あるモジュール、ブロック、または回路から別のものに移動させることができる。
さらに、本明細書で開示されている実施形態と共に説明されている様々な例示的な論理ブロック、モジュール、機能、および方法は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、ASIC、FPGA、もしくはその他のプログラマブルロジックデバイス、別々のゲートもしくはトランジスターロジック、別々のハードウェア構成要素、または本明細書で説明されている機能を実行するように設計されたこれらの任意の組み合わせを用いて実装または実行することができる。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは任意のプロセッサ、コントローラー、マイクロコントローラー、またはステートマシンであってもよい。また、プロセッサは、コンピューティングデバイスの組み合わせとして、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサの組み合わせ、DSPコアと連携した1つ以上のマイクロプロセッサの組み合わせ、または他の任意のこのような構成として実装することもできる。
追加的に、本明細書で開示されている実施形態と共に説明されている方法またはアルゴリズムのステップは、直接的にハードウェアにおいて、プロセッサにより実行されるソフトウェアモジュール内で、またはこの2つの組み合わせにおいて具体化することができる。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスター、ハードディスク、リムーバブルディスク、CD-ROM、またはネットワーク記憶媒体を含めた任意の他の形態の記憶媒体内に常駐することができる。例示的な記憶媒体は、プロセッサが記憶媒体から情報を読み取り、記憶媒体に情報を書き込むことができるようにプロセッサと結合され得る。代替として、記憶媒体はプロセッサと一体化していてもよい。また、プロセッサおよび記憶媒体はASICに常駐してもよい。
本明細書で言及されているコンピュータ可読記憶媒体は、それ自体が、電波もしくは他の自由に伝播する電磁波、導波路もしくは他の伝送媒体(例えば、光ケーブルを通過する光パルス)を介し伝播する電磁波、または電線を介し送信される電気信号のような一時的信号として解釈されるべきではない。
本明細書で説明されているいずれのソフトウェア構成要素も、多様な形態をとることができる。例えば、構成要素は、スタンドアロンのソフトウェアパッケージの場合もあれば、より大きなソフトウェア製品内の「ツール」として組み込まれたソフトウェアパッケージの場合もある。構成要素は、スタンドアロン製品として、または既存のソフトウェアアプリケーションにおけるインストール用アドインパッケージとして、ネットワーク(例えば、ウェブサイト)からダウンロード可能であってもよい。また、構成要素は、クライアントサーバー型ソフトウェアアプリケーションとして、ウェブ対応のソフトウェアアプリケーションとして、および/またはモバイルアプリケーションとして利用可能であってもよい。
本発明の実施形態は、本発明の実施形態に従う方法、装置(システム)、およびコンピュータプログラム製品のフローチャート図および/またはブロック図を参照しながら本明細書で説明されている。フローチャート図および/またはブロック図の各ブロック、ならびにフローチャート図および/またはブロック図におけるブロックの組み合わせは、コンピュータ可読プログラム命令により実装され得ることが理解されよう。
コンピュータ可読プログラム命令は、マシンを生成するための汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理装置のプロセッサに提供することができ、これにより、コンピュータまたは他のプログラマブルデータ処理装置のプロセッサ経由で実行する命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックで指定された機能/作用を実装するための手段を作成する。また、これらのコンピュータ可読プログラム命令は、コンピュータ、他のプログラマブルデータ処理装置、および/または他のデバイスに特定の方式で機能するように指示することができるコンピュータ可読記憶媒体に格納することもでき、これにより、命令が格納されたコンピュータ可読記憶媒体は、フローチャートおよび/またはブロック図の1つまたは複数のブロックで指定された機能/作用の態様を実装する命令を含む製造品を備える。
また、コンピュータ可読プログラム命令は、コンピュータ、他のプログラマブルデータ処理装置、または他のデバイスにロードして、一連の操作ステップをコンピュータ、他のプログラマブル装置、または他のデバイス上で実行させてコンピュータ実装プロセスを生成することもでき、これにより、コンピュータ、他のプログラマブル装置、または他のデバイス上で実行する命令は、フローチャートおよび/またはブロック図の1つまたは複数のブロックで指定された機能/作用を実装する。
示されているフローチャートおよびブロック図は、本開示の様々な実施形態に従うシステム、方法、装置、およびコンピュータプログラム製品の考えられる実施形態のアーキテクチャー、機能性、および操作を例示している。この点において、フローチャートまたはブロック図の各ブロックは、指定された機能(複数可)を実装するための1つ以上の実行可能命令を含むモジュール、セグメント、または命令の一部に相当し得る。いくつかの代替的な実施形態において、ブロック内に記された機能は、図面内で記された順序とは異なって生じ得る。例えば、連続して示される2つのブロックが、実際には実質的に同時に実行される場合があり、またはブロックは時として、関係する機能性に応じて逆の順序で実行される場合がある。また、ブロック図および/またはフローチャート図の各ブロック、ならびにブロック図および/またはフローチャート図のブロックの組み合わせは、指定された機能もしくは作用を実行する、または専用ハードウェアおよびコンピュータ命令の組み合わせを行う専用ハードウェアベースのシステムによって実装される場合があることにも留意されたい。
本発明を具体化する装置および方法は、クラウドコンピューティング環境で管理および提供が可能である。クラウドコンピューティングは、構成可能なコンピューティングリソース(例えば、ネットワーク、ネットワーク帯域幅、サーバー、処理、メモリ、ストレージ、アプリケーション、仮想マシン、およびサービス)の共有プールへの便利なオンデマンドネットワークアクセスを可能にするためのサービス提供モデルであり、最小限の管理作業またはサービスプロバイダーとの対話により、迅速にプロビジョニングおよびリリースすることができる。このクラウドモデルは、少なくとも5つの特徴と、少なくとも3つのサービスモデルと、少なくとも4つの展開モデルとを含み得る。
特徴は以下の通りである。
オンデマンドセルフサービス:クラウド利用者は、サーバー時間およびネットワークストレージのようなコンピューティング能力の一方向的な供給を、人間がサービスプロバイダーと対話する必要なく、必要に応じて自動的に行うことができる。
幅広いネットワークアクセス:諸機能がネットワークを介して利用可能であり、混在するシンまたはシッククライアントプラットフォーム(例えば、携帯電話、ノートパソコン、およびPDA)による使用を促進する標準的なメカニズムを通じてアクセスされる。
リソースプーリング:プロバイダーのコンピューティングリソースは、マルチテナントモデルを用いて複数の利用者に提供されるようにプールされ、異なる物理的リソースおよび仮想リソースは、需要に応じて動的に割り当ておよび再割り当てが行われる。利用者は概して、提供されるリソースの正確な位置を制御することも知ることもできないが、より高い抽象レベルでの位置(例えば、国、州、またはデータセンター)は指定することができ得るという点において、位置非依存性の感覚がある。
迅速な弾力性:諸機能は、迅速かつ弾力的に、場合によっては自動的にプロビジョニングされて速やかにスケールアウトし、迅速にリリースされて速やかにスケールインすることができる。利用者にとっては、プロビジョニングに利用可能な諸機能はしばしば無制限のように見え、いつでも任意の量で購入することができる。
測定されたサービス:クラウドシステムは、サービスのタイプ(例えば、ストレージ、処理、帯域幅、およびアクティブユーザーアカウント)に適した何らかの抽象化レベルにおける計測能力を活用することにより、リソース使用を自動的に制御し最適化する。リソース使用状況は監視、制御、および報告することができ、これにより、利用サービスの提供者および利用者の両方に透明性がもたらされる。
サービスモデルは以下の通りである。
サービスとしてのソフトウェア(SaaS):利用者に提供される機能は、クラウドインフラストラクチャー上で稼働するプロバイダーのアプリケーションを使用することである。アプリケーションは、ウェブブラウザー(例えば、ウェブベースの電子メール)のようなシンクライアントインターフェイスを通じて様々なクライアントデバイスからアクセス可能である。利用者は、限定的なユーザー特化アプリケーション構成設定が考えられることを別にすれば、ネットワーク、サーバー、オペレーティングシステム、ストレージ、またはさらに個別のアプリケーション機能をも含めて、基盤となるクラウドインフラストラクチャーの管理または制御は行わない。
サービスとしてのプラットフォーム(PaaS):利用者に提供される機能は、提供者がサポートするプログラミング言語とツールを使用して利用者が作成または取得したアプリケーションを、クラウドインフラストラクチャー上に展開することである。利用者は、ネットワーク、サーバー、オペレーティングシステム、またはストレージを含めて、基盤となるクラウドインフラストラクチャーの管理または制御は行わないが、展開したアプリケーションや、場合によってはアプリケーションホスティング環境の構成を制御することができる。
サービスとしてのインフラストラクチャー(IaaS):利用者に提供される機能は、処理、ストレージ、ネットワーク、および他の基本的なコンピューティングリソースをプロビジョニングすることであり、利用者は、任意のソフトウェア(オペレーティングシステムおよびアプリケーションが含まれ得る)を展開し稼働させることができる。利用者は、基盤となるクラウドインフラストラクチャーの管理または制御は行わないが、オペレーティングシステム、ストレージ、展開したアプリケーションを制御することができ、場合によっては限定的に選択ネットワーキング構成要素(例えば、ホストファイアウォール)を制御することもできる。
展開モデルは以下の通りである。
プライベートクラウド:クラウドインフラストラクチャーは、1つの組織のみのために機能する。プライベートクラウドは、その組織またはサードパーティーにより管理される場合もあれば、オンプレミスまたはオフプレミスに存在する場合もある。
コミュニティークラウド:クラウドインフラストラクチャーはいくつかの組織によって共有され、共通の関心(例えば、ミッション、セキュリティ要件、ポリシー、およびコンプライアンスに関する考慮事項)を有する特定のコミュニティーをサポートする。コミュニティークラウドは、それらの組織またはサードパーティーにより管理される場合もあれば、オンプレミスまたはオフプレミスに存在する場合もある。
パブリッククラウド:クラウドインフラストラクチャーは、一般の人々や大規模な業界団体が利用できるようになっており、クラウドサービスを販売する組織が所有する。
ハイブリッドクラウド:クラウドインフラストラクチャーは2つ以上のクラウド(プライベート、コミュニティー、またはパブリック)が合成されたものであり、これらのクラウドは固有の実体にとどまっているものの、データおよびアプリケーションのポータビリティーを可能にする標準化されたまたは独自の技術(例えば、クラウド間の負荷分散のためのクラウドバースト)によって互いに結びついている。
クラウドコンピューティング環境は、ステートレス、低結合、モジュール性、および意味的な相互運用性に焦点を当てたサービス指向型である。クラウドコンピューティングの中心にあるのは、相互接続されたノードのネットワークを含むインフラストラクチャーである。
多くの改良および変更が、本開示の範囲から逸脱することなく、上記の例示的な実施形態になされ得ることは、当業者には明らかであろう。
参考文献
Wang, Dayong, Aditya Khosla, Rishab Gargeya, Humayun Irshad, and Andrew H Beck. 2016. “Deep Learning for Identifying Metastatic Breast Cancer.” ArXiv Preprint ArXiv:1606.05718.
US2015213302A1 (Case Western Reserve University)
Le Hou, Dimitris Samaras, Tahsin M. Kurc, Yi Gao, James E. Davis, and Joel H. Saltz “Patch-based Convolutional Neural Network for Whole Slide Tissue Image Classification”, Proc. IEEE Comput Soc Conf Comput Vis Pattern Recognit. 2016, pages 2424-2433. doi:10.1109/CVPR
Liu, Yun, Krishna Gadepalli, Mohammad Norouzi, George E Dahl, Timo Kohlberger, Aleksey Boyko, Subhashini Venugopalan, et al. 2017. “Detecting Cancer Metastases on Gigapixel Pathology Images.” ArXiv Preprint ArXiv:1703.02442.
Babak Ehteshami Bejnordi, Guido Zuidhof, Maschenka Balkenhol, Meyke Hermsen, Peter Bult, Bram van Ginneken, Nico Karssemeijer, Geert Litjens, Jeroen van der Laak “Context-aware stacked convolutional neural networks for classification of breast carcinomas in whole-slide histopathology images” 10 May 2017, ArXiv:1705.03678v1
Simonyan and Zisserman. 2014. “Very Deep Convolutional Networks for Large-Scale Image Recognition.” ArXiv Preprint ArXiv:1409.1556
Srivastava, Nitish, Geoffrey E Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. 2014. “Dropout: A Simple Way to Prevent Neural Networks from Overfitting.” Journal of Machine Learning Research vol. 15(1): pages 1929-58.
Angel Cruz-Roa, Hannah Gilmore, Ajay Basavanhally, Michael Feldman,Shridar Ganesan, Natalie N.C. Shih, John Tomaszewski, Fabio A. Gonzalez & Anant Madabhushi. “A Deep Learning approach for quantifying tumor extent” Scientific Reports 7, Article number: 46450 (2017), doi:10.1038/srep46450
Michel E. Vandenberghe, Marietta L. J. Scott, Paul W. Scorer, Magnus Soderberg, Denis Balcerzak & Craig Barker. “Relevance of deep learning to facilitate the diagnosis of HER2 status in breast cancer”. Scientific Reports 7, Article number: 45938 (2017), doi:10.1038/srep45938
Long, Jonathan, Evan Shelhamer, and Trevor Darrell. 2015. “Fully Convolutional Networks for Semantic Segmentation.” In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 3431-40 Computer Vision and Pattern Recognition (cs.CV), arXiv:1411.4038 [cs.CV]
Jouppi, Young, Patil et al “In-Datacenter Performance Analysis of a Tensor Processing Unit” 44th International Symposium on Computer Architecture (ISCA), Toronto, Canada, 24-28 June 2017 (submitted 16 April 2017), arXiv:1704.04760 [cs.AR]

Claims (21)

  1. 組織像または前記組織像のセット内の腫瘍を識別し、輪郭描画する方法であって、前記方法は、
    データリポジトリ内に格納されているレコードから組織像または前記組織像のセットを受信するステップと、
    前記組織像または前記組織像のセットから画像パッチを抽出するステップであって、前記画像パッチは、ピクセル数により定義された幅および高さのサイズを有する、前記組織像または前記組織像のセットのエリア部分であるステップと、
    重みのセットおよび複数のチャネルを有する畳み込みニューラルネットワークを提供するステップであって、各チャネルは、識別対象となる複数の組織クラスのうちの1つに対応し、前記複数の組織クラスのうちの1つまたは複数は、1つまたは複数の非腫瘍組織クラスを含み、前記複数の組織クラスの2つ以上は、2つ以上の腫瘍組織クラスを含み、前記2つ以上の腫瘍組織クラスは、異なるタイプの腫瘍を表すステップと、
    各画像パッチを入力画像パッチとして前記畳み込みニューラルネットワークに入力するステップと、
    最小次元数の最終畳み込み層まで次元数を減らし続ける畳み込み層を生成するための多段階畳み込みを実行し、次いで、層が前記入力画像パッチとサイズがマッチするように復元されるまで次元数を増やし続ける逆畳み込み層を生成することにより前記畳み込みを反転させるための多段階転置畳み込みを実行するステップであって、前記復元された層内の各ピクセルは、前記組織クラスの各々に属する確率を含むステップと、
    出力画像パッチに達する前記確率に基づいて、前記1つまたは複数の非腫瘍組織クラスおよび前記2つ以上の腫瘍組織クラスからの組織クラスを前記復元された層の各ピクセルに割り当てるステップと、
    記組織像または前記組織像のセット内の第1の腫瘍エリアを第1の腫瘍タイプに対応すると分類し、前記組織像または前記組織像のセット内の第2の腫瘍エリアを第2の腫瘍タイプに対応すると分類するステップと、
    前記組織像または前記組織像のセット内の腫瘍エリアをフィルタリングし、偽陽性の腫瘍を除外するステップと、
    を含み、
    前記方法は、
    少なくとも1つのスキップ接続を有する前記畳み込みニューラルネットワークを提供するステップであって、前記スキップ接続の各々は、前記最終畳み込み層より高次元の前記畳み込み層のうちの少なくとも1つからの中間結果を取り出し、前記中間結果を、ゼロでも1つでも2つ以上でもよい必要な数の転置畳み込みに供して、前記入力画像パッチとサイズがマッチした少なくとも1つのさらに復元された層を取得するステップと、
    組織クラスを各ピクセルに割り当てる前記ステップの前に、前記少なくとも1つのスキップ接続を考慮する確率を再計算するために、前記復元された層を、前記少なくとも1つのさらに復元された層と組み合わせるように、さらに処理するステップと、
    をさらに含む、
    方法。
  2. 前記方法は、前記出力画像パッチを集めて前記組織像または前記組織像のセットのための確率マップに構築するステップをさらに含む、
    請求項1に記載の方法。
  3. 前記方法は、前記確率マップが前記組織像または前記組織像のセットにリンクするように、前記確率マップを前記データリポジトリ内の前記レコードに格納するステップをさらに含む、
    請求項2に記載の方法。
  4. 前記方法は、前記組織像または前記組織像のセットを、前記確率マップと共にディスプレイに表示するステップをさらに含む、
    請求項2に記載の方法。
  5. 前記確率を生成するためにソフトマックス操作が使用される、
    請求項1に記載の方法。
  6. 前記方法は、予測のために実行され、
    前記畳み込みニューラルネットワークは、事前訓練中にその重み値が割り当てられている、
    請求項1に記載の方法。
  7. 前記方法は、訓練のために実行され、
    前記レコードは、前記組織像または前記組織像のセット内の各ピクセルを前記組織クラスのうちの1つに割り当てるグラウンドトゥルースデータを含み、
    前記方法は、反復的に実行され、
    各反復は、前記グラウンドトゥルースデータと前記出力画像パッチとの比較に基づいて、その重み値を前記畳み込みニューラルネットワークのために調整する、
    請求項1に記載の方法。
  8. 訓練中の前記重みの調整は、勾配降下により実行される、
    請求項7に記載の方法。
  9. 前記方法は、前記復元された層の各ピクセルに割り当てられた前記組織クラスに基づいて、前記2つ以上の腫瘍組織クラスの各々のために前記組織像または前記組織像のセット内の腫瘍エリアを輪郭描画するステップをさらに含む、
    請求項1に記載の方法。
  10. 前記2つ以上の腫瘍組織クラスは、浸潤性腫瘍のための第1のクラスおよび上皮内腫瘍のための第2のクラスを含む、
    請求項1に記載の方法。
  11. 前記組織像または前記組織像のセットは、組織の一領域の別々に染色された隣接切片から取得される組織像のセットである、
    請求項1に記載の方法。
  12. 前記方法は、
    前記確率マップに従って腫瘍に対応する前記組織像または前記組織像のセット内の前記腫瘍エリアを定義するステップと、
    各腫瘍にスコアを割り当てるために、スコア付けアルゴリズムに従って各腫瘍をスコア付けするステップと、
    前記データリポジトリ内の前記レコードに前記スコアを格納するステップと、
    をさらに含む、
    請求項2に記載の方法。
  13. 前記方法は、前記組織像または前記組織像のセットを、前記確率マップおよび前記スコアと共にディスプレイに表示するステップをさらに含む、
    請求項12に記載の方法。
  14. 組織像または前記組織像のセット内の腫瘍を識別し、輪郭描画するためのコンピュータプログラムであって、請求項1に記載の方法を実行するための機械可読命令を有する、
    コンピュータプログラム。
  15. 組織像または前記組織像のセット内の腫瘍を識別し、輪郭描画するためのコンピュータ装置であって、前記コンピュータ装置は、
    データリポジトリ内に格納されているレコードから組織像または前記組織像のセットを受信するように操作可能な入力部と、
    前記組織像または前記組織像のセットから画像パッチを抽出するように構成された前処理モジュールであって、前記画像パッチは、ピクセル数により定義された幅および高さのサイズを有する、前記組織像または前記組織像のセットのエリア部分である前処理モジュールと、
    重みのセットおよび複数のチャネルを有する畳み込みニューラルネットワークと、
    を含み、
    各チャネルは、識別対象となる複数の組織クラスのうちの1つに対応し、前記複数の組織クラスのうちの1つまたは複数は、1つまたは複数の非腫瘍組織クラスを含み、前記複数の組織クラスの2つ以上は、2つ以上の腫瘍組織クラスを含み、前記2つ以上の腫瘍組織クラスは、異なるタイプの腫瘍を表し、前記畳み込みニューラルネットワークは、
    a)各画像パッチを入力画像パッチとして入力するように受信するステップと、
    b)最小次元数の最終畳み込み層まで次元数を減らし続ける畳み込み層を生成するための多段階畳み込みを実行し、次いで、層が前記入力画像パッチとサイズがマッチするように復元されるまで次元数を増やし続ける逆畳み込み層を生成することにより前記畳み込みを反転させるための多段階転置畳み込みを実行するステップであって、前記復元された層内の各ピクセルは、前記組織クラスの各々に属する確率を含むステップと、
    c)出力画像パッチに達する前記確率に基づいて、前記1つまたは複数の非腫瘍組織クラスおよび前記2つ以上の腫瘍組織クラスからの組織クラスを前記復元された層の各ピクセルに割り当てるステップと、
    )前記組織像または前記組織像のセット内の第1の腫瘍エリアを第1の腫瘍タイプに対応すると分類し、前記組織像または前記組織像のセット内の第2の腫瘍エリアを第2の腫瘍タイプに対応すると分類するステップと、
    e)前記組織像または前記組織像のセット内の腫瘍エリアをフィルタリングし、偽陽性の腫瘍を除外するステップと、
    を行うように操作可能であり、
    前記畳み込みニューラルネットワークは、少なくとも1つのスキップ接続を有し、前記スキップ接続の各々は、前記最終畳み込み層より高次元の前記畳み込み層のうちの少なくとも1つからの中間結果を取り出し、前記中間結果を、ゼロでも1つでも2つ以上でもよい必要な数の転置畳み込みに供して、前記入力画像パッチとサイズがマッチした少なくとも1つのさらに復元された層を取得し、
    前記畳み込みニューラルネットワークは、組織クラスを各ピクセルに割り当てる前記ステップの前に、前記少なくとも1つのスキップ接続を考慮する確率を再計算するために、前記復元された層を、前記少なくとも1つのさらに復元された層と組み合わせるように、さらに処理するように構成される、
    コンピュータ装置。
  16. 前記装置は、前記出力画像パッチを集めて前記組織像または前記組織像のセットのための確率マップに構築するように構成された後処理モジュールをさらに含む、
    請求項15に記載の装置。
  17. 前記装置は、前記確率マップが前記組織像または前記組織像のセットにリンクするように、前記確率マップを前記データリポジトリ内の前記レコードに格納するように操作可能な出力部をさらに含む、
    請求項16に記載の装置。
  18. 前記装置は、
    ディスプレイと、
    前記組織像または前記組織像のセットおよび前記確率マップを前記ディスプレイに送信して、前記組織像または前記組織像のセットが前記確率マップと共に表示されるように操作可能なディスプレイ出力部と、
    をさらに含む、
    請求項16に記載の装置。
  19. 前記組織像または前記組織像のセットは、乳癌の組織像である、
    請求項15に記載の装置。
  20. 臨床ネットワークであって、
    請求項15に記載のコンピュータ装置と、
    組織像または前記組織像のセットを含む患者データのレコードを格納するように構成されたデータリポジトリと、
    前記コンピュータ装置と前記データリポジトリとの間の患者データレコードまたはその一部の転送を可能にするネットワーク接続と、
    を含む臨床ネットワーク。
  21. 前記臨床ネットワークは、前記組織像または前記組織像のセットを取得し、前記組織像または前記組織像のセットを前記データリポジトリ内のレコードに格納するように操作可能な画像収集装置をさらに含む、
    請求項20に記載の臨床ネットワーク。
JP2022084796A 2017-12-29 2022-05-24 腫瘍を識別するための畳み込みニューラルネットワークを用いた組織像の処理 Active JP7384960B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762611915P 2017-12-29 2017-12-29
US62/611,915 2017-12-29
JP2020536252A JP2021509713A (ja) 2017-12-29 2018-12-21 腫瘍を識別するための畳み込みニューラルネットワークを用いた組織像の処理
PCT/US2018/067349 WO2019133538A2 (en) 2017-12-29 2018-12-21 Processing of histology images with a convolutional neural network to identify tumors

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020536252A Division JP2021509713A (ja) 2017-12-29 2018-12-21 腫瘍を識別するための畳み込みニューラルネットワークを用いた組織像の処理

Publications (2)

Publication Number Publication Date
JP2022119882A JP2022119882A (ja) 2022-08-17
JP7384960B2 true JP7384960B2 (ja) 2023-11-21

Family

ID=67057727

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020536252A Pending JP2021509713A (ja) 2017-12-29 2018-12-21 腫瘍を識別するための畳み込みニューラルネットワークを用いた組織像の処理
JP2022084796A Active JP7384960B2 (ja) 2017-12-29 2022-05-24 腫瘍を識別するための畳み込みニューラルネットワークを用いた組織像の処理

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020536252A Pending JP2021509713A (ja) 2017-12-29 2018-12-21 腫瘍を識別するための畳み込みニューラルネットワークを用いた組織像の処理

Country Status (6)

Country Link
US (2) US10740896B2 (ja)
EP (1) EP3625765B1 (ja)
JP (2) JP2021509713A (ja)
CN (1) CN111542830A (ja)
AU (1) AU2018394106B2 (ja)
WO (1) WO2019133538A2 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018102918A1 (en) * 2016-12-05 2018-06-14 Avigilon Corporation System and method for cnn layer sharing
EP3625765B1 (en) 2017-12-29 2024-03-20 Leica Biosystems Imaging, Inc. Processing of histology images with a convolutional neural network to identify tumors
KR102174379B1 (ko) * 2018-08-27 2020-11-04 주식회사 딥바이오 세그멘테이션을 수행하는 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법
EP3844781A4 (en) * 2018-08-30 2022-05-11 Applied Materials, Inc. SYSTEM FOR AUTOMATIC DETECTION AND CLASSIFICATION OF TUMORS
TWI681406B (zh) * 2018-12-20 2020-01-01 中國醫藥大學附設醫院 腫瘤影像深度學習輔助子宮頸癌患者預後預測系統、方法及電腦程式產品
US10949649B2 (en) * 2019-02-22 2021-03-16 Image Metrics, Ltd. Real-time tracking of facial features in unconstrained video
CN110084309B (zh) * 2019-04-30 2022-06-21 北京市商汤科技开发有限公司 特征图放大方法、装置和设备及计算机可读存储介质
CN117234356A (zh) * 2019-05-08 2023-12-15 义隆电子股份有限公司 用于触控装置的控制系统及方法
US11176696B2 (en) * 2019-05-13 2021-11-16 International Business Machines Corporation Point depth estimation from a set of 3D-registered images
JP7100336B2 (ja) * 2019-05-16 2022-07-13 ペイジ.エーアイ インコーポレイテッド デジタル病理学のために、画像を処理し、処理された画像を分類するためのシステムおよび方法
US20220254177A1 (en) * 2019-06-07 2022-08-11 Leica Microsystems Cms Gmbh System and method for processing biology-related data and a microscope
US11195060B2 (en) * 2019-07-05 2021-12-07 Art Eye-D Associates Llc Visualization of subimage classifications
CN112288672B (zh) * 2019-07-10 2023-12-08 富泰华工业(深圳)有限公司 肿瘤检测方法及肿瘤检测装置
EP4014156A1 (en) * 2019-08-13 2022-06-22 Sanofi Predicting patient responses to a chemical substance
CN110807764A (zh) * 2019-09-20 2020-02-18 成都智能迭迦科技合伙企业(有限合伙) 一种基于神经网络的肺癌筛查方法
JP2021056571A (ja) * 2019-09-27 2021-04-08 国立大学法人 東京大学 情報処理装置、情報処理システム、情報処理方法及びプログラム
US11367189B2 (en) * 2019-10-18 2022-06-21 Carnegie Mellon University Method for object detection using hierarchical deep learning
US11341635B2 (en) * 2019-10-31 2022-05-24 Tencent America LLC Computer aided diagnosis system for detecting tissue lesion on microscopy images based on multi-resolution feature fusion
DE102019130930A1 (de) * 2019-11-15 2021-05-20 Carl Zeiss Microscopy Gmbh Mikroskop und Verfahren mit Ausführen eines faltenden neuronalen Netzes
CN112905132B (zh) * 2019-11-19 2023-07-18 华为技术有限公司 投屏方法及设备
CN110827275B (zh) * 2019-11-22 2023-12-22 吉林大学第一医院 基于树莓派和深度学习的肝脏核磁动脉期影像质量分级方法
CN111126187A (zh) * 2019-12-09 2020-05-08 上海眼控科技股份有限公司 火情检测方法、系统、电子设备及存储介质
CN114902279A (zh) * 2019-12-19 2022-08-12 奇手公司 基于机器视觉的自动化缺陷检测
CN111383328B (zh) * 2020-02-27 2022-05-20 西安交通大学 一种面向乳腺癌病灶的3d可视化方法及系统
JP2023518251A (ja) * 2020-03-18 2023-04-28 サノフイ 発現量を予測するためのシステムおよび方法
AU2021267894A1 (en) 2020-05-08 2022-12-08 PAIGE.AI, Inc. Systems and methods to process electronic images to determine salient information in digital pathology
US11379697B2 (en) * 2020-05-20 2022-07-05 Bank Of America Corporation Field programmable gate array architecture for image analysis
US11790533B2 (en) * 2020-07-02 2023-10-17 Sony Group Corporation Machine learning based image segmentation training with contour accuracy evaluation
EP3975110A1 (en) * 2020-09-25 2022-03-30 Panakeia Technologies Limited A method of processing an image of tissue and a system for processing an image of tissue
CN112233151B (zh) * 2020-10-14 2023-10-03 北京优纳科技有限公司 一种自动确认浸润性乳腺癌区域系统
TWI762055B (zh) * 2020-11-30 2022-04-21 鴻海精密工業股份有限公司 卷積神經網路、運算優化方法、裝置、電子設備及介質
CN112634208B (zh) * 2020-12-09 2022-07-05 浙江求是数理医学研究院 基于深度学习的超声影像混合训练方法
RU2764705C1 (ru) * 2020-12-22 2022-01-19 Общество с ограниченной ответственностью «Аби Продакшн» Извлечение нескольких документов из единого изображения
CN112580748B (zh) * 2020-12-30 2022-10-14 电子科技大学 一种对染色图像的分类细胞计数的方法
CN112801939B (zh) * 2020-12-31 2022-07-22 杭州迪英加科技有限公司 一种用于提高病理图像ki67指标准确性的方法
CN112950587B (zh) * 2021-03-02 2023-04-07 中国科学院自动化研究所 基于深度学习的脑胶质瘤荧光图像分析方法、系统及设备
US11482319B2 (en) 2021-03-09 2022-10-25 PAIGE.AI, Inc. Systems and methods for processing electronic images to determine testing for unstained specimens
WO2022197917A1 (en) * 2021-03-18 2022-09-22 Leica Biosystems Imaging, Inc. Apparatus and method for training of machine learning models using annotated image data for pathology imaging
CN112967267B (zh) * 2021-03-23 2024-01-23 湖南珞佳智能科技有限公司 一种全卷积神经网络的激光定向能量沉积溅射计数方法
CN113077440A (zh) * 2021-03-31 2021-07-06 中南大学湘雅医院 病理图像的处理方法、装置、计算机设备和存储介质
CN113205111B (zh) * 2021-04-07 2023-05-26 零氪智慧医疗科技(天津)有限公司 适用于肝脏肿瘤的识别方法、装置及电子设备
CN113035334B (zh) * 2021-05-24 2021-10-29 四川大学 鼻腔nkt细胞淋巴瘤放疗靶区自动勾画方法和装置
TWI790689B (zh) * 2021-07-21 2023-01-21 財團法人資訊工業策進會 乳房斷層影像處理方法與電子裝置
CN113946538B (zh) * 2021-09-23 2024-04-12 南京大学 一种基于行缓存机制的卷积层融合存储装置及方法
CN114239811A (zh) * 2021-12-21 2022-03-25 支付宝(杭州)信息技术有限公司 基于隐私保护的多方联合卷积处理方法、装置和系统
CN114973244B (zh) * 2022-06-12 2023-04-11 桂林电子科技大学 一种乳腺癌h&e染色病理图像有丝分裂自动识别系统和方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017516992A (ja) 2014-05-23 2017-06-22 ベンタナ メディカル システムズ, インコーポレイテッド 画像内の生物学的構造及び/又はパターンの検出のためのシステム及び方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6819790B2 (en) * 2002-04-12 2004-11-16 The University Of Chicago Massive training artificial neural network (MTANN) for detecting abnormalities in medical images
GB201307590D0 (en) * 2013-04-26 2013-06-12 St Georges Hosp Medical School Processing imaging data to obtain tissue type information
US9946953B2 (en) * 2013-05-10 2018-04-17 Koninklijke Philips N.V. Apparatus and method for processing images of tissue samples
US9585627B2 (en) * 2013-08-14 2017-03-07 Siemens Healthcare Gmbh Histological differentiation grade prediction of hepatocellular carcinoma in computed tomography images
WO2015054666A1 (en) 2013-10-10 2015-04-16 Board Of Regents, The University Of Texas System Systems and methods for quantitative analysis of histopathology images using multi-classifier ensemble schemes
CN106030608A (zh) * 2013-11-06 2016-10-12 理海大学 生物组织分析诊断系统与方法
US9430829B2 (en) 2014-01-30 2016-08-30 Case Western Reserve University Automatic detection of mitosis using handcrafted and convolutional neural network features
AU2015345199A1 (en) 2014-11-10 2017-04-27 Ventana Medical Systems, Inc. Classifying nuclei in histology images
US9785848B2 (en) * 2015-04-30 2017-10-10 Ge Healthcare Bio-Sciences Corp. Automated staining and segmentation quality control
US9965719B2 (en) 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
US10049450B2 (en) * 2015-12-03 2018-08-14 Case Western Reserve University High-throughput adaptive sampling for whole-slide histopathology image analysis
WO2017142629A1 (en) * 2016-02-18 2017-08-24 Google Inc. Image classification neural networks
US9739783B1 (en) * 2016-03-15 2017-08-22 Anixa Diagnostics Corporation Convolutional neural networks for cancer diagnosis
WO2017165801A1 (en) * 2016-03-24 2017-09-28 The Regents Of The University Of California Deep-learning-based cancer classification using a hierarchical classification framework
CN110073404B (zh) * 2016-10-21 2023-03-21 南坦生物组学有限责任公司 数字组织病理学和显微解剖
US10373312B2 (en) * 2016-11-06 2019-08-06 International Business Machines Corporation Automated skin lesion segmentation using deep side layers
US10573003B2 (en) * 2017-02-13 2020-02-25 Amit Sethi Systems and methods for computational pathology using points-of-interest
US20180263568A1 (en) * 2017-03-09 2018-09-20 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Clinical Image Classification
CN107330263B (zh) * 2017-06-26 2020-07-28 成都知识视觉科技有限公司 一种计算机辅助乳腺浸润性导管癌组织学分级的方法
US11195274B2 (en) * 2017-08-03 2021-12-07 Nucleai Ltd Systems and methods for analysis of tissue images
US10282589B2 (en) * 2017-08-29 2019-05-07 Konica Minolta Laboratory U.S.A., Inc. Method and system for detection and classification of cells using convolutional neural networks
US10832406B2 (en) * 2017-11-15 2020-11-10 President And Fellows Of Harvard College Quantitative pathology analysis and diagnosis using neural networks
EP3625765B1 (en) 2017-12-29 2024-03-20 Leica Biosystems Imaging, Inc. Processing of histology images with a convolutional neural network to identify tumors

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017516992A (ja) 2014-05-23 2017-06-22 ベンタナ メディカル システムズ, インコーポレイテッド 画像内の生物学的構造及び/又はパターンの検出のためのシステム及び方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Olaf Ronneberger,U-Net: Convolutional Networks for Biomedical Image Segmentation,Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015,2015年,Page.234-241
Q. Li et al.,Colorectal polyp segmentation using a fully convolutional neural network,2017 10th International Congress on Image and Signal Processing, BioMedical Engineering and Informatics (CISP-BMEI), Shanghai, China,2017年10月,pp. 1-5
Teresa Araujo,Classification of breast cancer histology images using Convolutional Neural Networks,PLoS ONE,2017年06月01日,Vol.12 No.6,Page.e0177544
Zhongwei Feng,Patch-Based Fully Convolutional Neural Network With Skip Connections For Retinal Blood Vessel Segmentation,2017 IEEE International Conference on Image Processing,2017年09月,Page.1742-1746
服部英春,染色濃淡自動分類とCNNを用いた腫瘍組織選別技術,Medical Imaging Technology,2017年11月30日,Vol.35 No.5,Page.273-280

Also Published As

Publication number Publication date
US20200364867A1 (en) 2020-11-19
AU2018394106B2 (en) 2022-02-10
US10740896B2 (en) 2020-08-11
EP3625765B1 (en) 2024-03-20
JP2022119882A (ja) 2022-08-17
WO2019133538A3 (en) 2020-03-26
EP3625765A4 (en) 2021-05-05
EP3625765A2 (en) 2020-03-25
US11449998B2 (en) 2022-09-20
US20190206056A1 (en) 2019-07-04
JP2021509713A (ja) 2021-04-01
CN111542830A (zh) 2020-08-14
AU2018394106A1 (en) 2020-07-16
WO2019133538A2 (en) 2019-07-04

Similar Documents

Publication Publication Date Title
JP7384960B2 (ja) 腫瘍を識別するための畳み込みニューラルネットワークを用いた組織像の処理
US11893732B2 (en) Computer supported review of tumors in histology images and post operative tumor margin assessment
Bejnordi et al. Context-aware stacked convolutional neural networks for classification of breast carcinomas in whole-slide histopathology images
Rawat et al. Deep learned tissue “fingerprints” classify breast cancers by ER/PR/Her2 status from H&E images
US20220084660A1 (en) Artificial intelligence processing system and automated pre-diagnostic workflow for digital pathology
Kothari et al. Pathology imaging informatics for quantitative analysis of whole-slide images
US20170169567A1 (en) Systems and methods for detection of structures and/or patterns in images
JP2022550413A (ja) マルチクラス画像セグメンテーションのための深層多重倍率ネットワーク
Xu et al. Deep learning for histopathological image analysis: Towards computerized diagnosis on cancers
US11176412B2 (en) Systems and methods for encoding image features of high-resolution digital images of biological specimens
JP6559353B2 (ja) 自動核セグメンテーション
EP4275052A1 (en) Quantification of conditions on biomedical images across staining modalities using a multi-task deep learning framework
WO2022133104A1 (en) Detection of annotated regions of interest in images
Aljuhani et al. Whole slide imaging: deep learning and artificial intelligence
Naqvi et al. Automated gland segmentation leading to cancer detection for colorectal biopsy images
Salvi et al. cyto‐Knet: An instance segmentation approach for multiple myeloma plasma cells using conditional kernels
RS CoC-ResNet-classification of colorectal cancer on histopathologic images using residual networks
KR20240006599A (ko) 전자 이미지의 속성을 조정하기 위해 전자 이미지를 처리하는 시스템 및 방법
Tiwaria Computational Assessment of Tumor Microenvironment Heterogeneity and Tumor-Stroma Interactions Using SE-ResNet based Enhanced Feature Extraction Networks in High-Resolution Breast Cancer Histopathology

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231109

R150 Certificate of patent or registration of utility model

Ref document number: 7384960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150