JP2019513255A - コントロールスライドを使用する改善された画像解析アルゴリズム - Google Patents

コントロールスライドを使用する改善された画像解析アルゴリズム Download PDF

Info

Publication number
JP2019513255A
JP2019513255A JP2018545836A JP2018545836A JP2019513255A JP 2019513255 A JP2019513255 A JP 2019513255A JP 2018545836 A JP2018545836 A JP 2018545836A JP 2018545836 A JP2018545836 A JP 2018545836A JP 2019513255 A JP2019513255 A JP 2019513255A
Authority
JP
Japan
Prior art keywords
image
control
ihc
artifacts
image analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018545836A
Other languages
English (en)
Other versions
JP6960935B2 (ja
Inventor
サーカー,アニンディア
Original Assignee
ベンタナ メディカル システムズ, インコーポレイテッド
ベンタナ メディカル システムズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベンタナ メディカル システムズ, インコーポレイテッド, ベンタナ メディカル システムズ, インコーポレイテッド filed Critical ベンタナ メディカル システムズ, インコーポレイテッド
Publication of JP2019513255A publication Critical patent/JP2019513255A/ja
Application granted granted Critical
Publication of JP6960935B2 publication Critical patent/JP6960935B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30072Microarray; Biochip, DNA array; Well plate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Analysis (AREA)

Abstract

自動的にアーチファクトを生物試料画像の解析から排除するためのシステム及び方法が、開示される。例示的な方法は、免疫組織化学(IHC)画像及びコントロール画像を獲得するステップと、コントロール画像が1つ又は複数のアーチファクトを含むかどうかを決定するステップと、コントロール画像が1つ又は複数のアーチファクトを含むと決定したとき、1つ又は複数のアーチファクトをコントロール画像からIHC画像にマッピングすることによって、IHC画像内における1つ又は複数のアーチファクト領域を識別するステップと、IHC画像の画像解析を実行するステップであって、識別されたアーチファクト領域が画像解析から排除される、ステップとを含む。

Description

関連出願の相互参照
本特許出願は、2016年3月1日に出願された米国仮特許出願第62/302062号、及び2017年2月28日に出願された米国仮特許出願第62/464972号に基づいており、それらに対する優先権を主張する。上記の特許出願の各々は、その全体が説明されているかのように、参照によって本明細書に組み込まれる。
本開示は、一般に、医用画像の分野に関する。本開示において説明されるいくつかの例は、自動的にアーチファクトを検出し、生物試料の画像の画像解析から排除する方法に関する。
組織切片、細胞診画像(cytology image)、組織マイクロアレイ(TMA)画像、細胞株、及び血液スミア(blood smear)などの、生物試料の解析において、生物試料は、特定のタイプの組織、細胞、及び細胞小器官など、試料内の様々なタイプの構造を強調するために、1つ又は複数の異なる染色剤又は染料を用いてときには染色される。これは、病理学者及び他の医療専門家が、試料の形態をより良く評価し、患者に対してより正確な診断、経過予想、及び治療計画を行うことを可能にすることができる。
試料を染色する他の方法は、ヘマトキシリン及びエロシン(H&E)染色(hematoxylin and eosin staining)であり、この染色法においては、濃青色又は紫色のヘマトキシリンは、DNA及びRNAなどの、好塩基性物質に結び付き、赤色又はピンクのエロシンは、正荷電アミノ酸側鎖(positively charged amino acid side chain)などの、好酸性物質に結び付く。したがって、H&Eを用いて染色された、試料スライド上の細胞核は、青色又は紫色で出現する可能性が高く、一方、細胞質、好塩基球、筋肉、赤血球、コラーゲン、及びミトコンドリアなどの構造は、ピンク又は赤色の異なる色合いで出現する可能性が高い。
原位置ハイブリダイゼーション(ISH:in situ hybridization)染色は、標識相補的DNA(labeled complementary DNA)、RNA、又は修飾核酸鎖(modified nucleic acids strand)(すなわち、プローブ)を使用して、組織の一部又は切片において特定のDNA又はRNA配列を見つけ出す技法である。原位置ハイブリダイゼーションは、組織切片における個々の細胞内において特定のmRNA種を同定し、生理的過程及び病因についての洞察を提供するための強力な技法であることができる。
免疫組織化学(IHC)染色は、その著しい効率性と、それが生成する豊富な診断情報とのために、人気が出てきた、別の染色技法である。IHCスライド染色は、組織切片の細胞内のタンパク質を同定するために利用することができ、したがって、生物組織内のがん細胞及び免疫細胞など、異なるタイプの細胞の研究において広く使用される。例えば、IHC染色は、免疫反応研究のために、がん組織内の免疫細胞の示差的に発現するバイオマーカ(differentially expressed biomarker)の分布及び局在性を理解するために、研究及び臨床の場において使用することができる。例えば、腫瘍は、しばしば、免疫細胞の浸潤物を含み、それは、腫瘍の発育を妨げること、又は腫瘍の増殖に有利に働くことがある。このシナリオにおいては、異なるタイプの免疫細胞を標的とするために、複数の染色剤が、使用されてよく、患者の臨床結果を研究する際に、各タイプの免疫細胞の個体数分布(population distribution)が、使用される。
研究者及び臨床医は、伝統的に、H&E、IHC、ISH、蛍光ISH(FISH)、又は他の方法を用いて染色された組織スライドを、明視野又は蛍光顕微鏡の下で検査してきた。しかしながら、分析は、より複雑になってきており、特定のタイプの領域においては、特定のタイプの数百又は数千の細胞を見つけ、カウントすることをしばしば必要とするので、これらの作業を人手で(正確に)実行することは、ますます困難な作業になっている。したがって、ますます多くの研究者及び臨床医が、より速く、より正確で、より再現可能な結果を彼らが得ることを助けることができる、「デジタル病理学」ソリューションを利用し始めている。デジタル病理学システムは、組織スライドをスキャンして、組織の非常に高い解像度(例えば、ピクセル当たり0.5又は0.275ミクロン)のデジタル画像を生成することができる、スライドスキャナを含む。デジタル病理学システムは、組織画像又は他のタイプの生物試料画像を自動的に処理し、検分し、分割し、解析(例えば、スコアリング)し、さもなければ管理するための、ハードウェア及び/又はソフトウェアソリューションも含む。
免疫組織化学(IHC)染色プロトコルの一部として、1つ又は複数の陰性及び/又は陽性コントロールスライドが、染色プロセスの品質を確認する目的で、しばしば準備され、染色され、スキャンされる。例えば、陰性コントロールスライドは、一次抗体が、除外されること、又は一次抗体と同じ種のアイソタイプ、組織培養基、緩衝液、又は希薄な非免疫血清などの、他の何らかの溶液を用いて置換されることを除いて、メインIHCスライド上の組織と同じ方法で準備された、隣接組織切片を含むことができる。そのようなスライドは、例えば、背景の染みのレベルを決定し、それが許容可能な限界を超えていないことを確認するために、使用することができる。
改善された画像解析アルゴリズムを提供する。
本明細書においては、自動的にアーチファクトを生物試料画像の解析から排除するためのシステム及び方法が、開示される。
いくつかの実施形態においては、生物試料画像を解析するための画像解析システムが、開示される。システムは、免疫組織化学(IHC)画像及びコントロール画像を獲得し、IHC画像とコントロール画像が構造的に類似しているかどうかを決定するように構成することができる、画像位置合わせエンジンを含み得る。システムは、コントロール画像が1つ又は複数のアーチファクトを含むかどうかを決定し、コントロール画像が1つ又は複数のアーチファクトを含むと決定したとき、1つ又は複数のアーチファクトをコントロール画像からIHC画像にマッピングすることによって、IHC画像内における1つ又は複数のアーチファクト領域を識別するように構成された、アーチファクト検出エンジンも含み得る。システムは、とりわけ、IHC画像の画像解析を実行するように構成された画像解析エンジンであって、IHC画像とコントロール画像が構造的に類似しているとの決定に基づいて、1つ又は複数のアーチファクト領域が画像解析から排除される、画像解析エンジンをさらに含み得る。
他の実施形態においては、アーチファクト領域を検出し、画像解析から排除する方法が、開示される。方法は、とりわけ、免疫組織化学(IHC)画像及びコントロール画像を獲得するステップと、コントロール画像が1つ又は複数のアーチファクトを含むかどうかを決定するステップと、コントロール画像が1つ又は複数のアーチファクトを含むと決定したとき、1つ又は複数のアーチファクトをコントロール画像からIHC画像にマッピングすることによって、IHC画像内における1つ又は複数のアーチファクト領域を識別するステップと、IHC画像の画像解析を実行するステップであって、1つ又は複数のアーチファクト領域が画像解析から排除される、ステップとを含み得る。
さらに他の実施形態においては、命令を記憶した非一時的コンピュータ可読媒体が、開示される。命令は、画像解析システムのプロセッサによって実行されたときに、画像解析システムに、例えば、IHCスライドの免疫組織化学(IHC)画像の視野(FOV)を獲得することと、IHCスライドと関連付けられたコントロールスライドのコントロール画像を獲得することと、コントロールFOVを獲得するために、FOVをIHC画像からコントロール画像にマッピングすることと、コントロールFOV内においてアーチファクトを検出することと、コントロールFOVにおいていずれかのアーチファクトが検出されたかどうかを、ユーザに通知することとを行わせ得る。
これら及び他の実施形態が、以下でより詳細に説明される。
以下において、本発明の実施形態が、図面を参照しながら、もっぱら例として、より詳細に説明される。
いくつかの実施形態による、例示的な画像獲得システム及び例示的な画像解析システムを示す図である。 いくつかの実施形態による、画像位置合わせの様々な例を示す図である。 IHC及び陰性コントロール(NC)画像の領域の例を示す図である。 IHC及びNC画像の領域の他の例を示す図である。 IHC及びNC画像の領域のさらに他の例を示す図である。 いくつかの実施形態による、FOVベースのワークフローを示す図である。 いくつかの実施形態による、自動的にアーチファクト領域を検出し、全スライド画像解析などの画像解析から排除する例示的な方法を示す図である。 いくつかの実施形態による、自動的にFOVにおけるアーチファクトを検出する例示的な方法を示す図である。
上で言及されたように、デジタル病理学ソリューションは、IHC画像の自動処理及び解析を可能にし得る。残念ながら、色、形状、及び輝度がDABなどの陽性染色に類似する、様々な組織アーチファクトが、IHC画像に出現することがある。そのようなアーチファクトは、画像解析アルゴリズムによって、染色された細胞として誤って識別されることができ、そのことは、様々なタイプの細胞の不正確なカウントなど、誤った結果をアルゴリズムに生成させることができる。
本明細書において説明される方法及びシステムは、アーチファクトを含む、IHC画像における領域を識別するために、これまで利用されなかったコントロールスライドを使用し、それらのエリアを解析から排除し、それによって、アルゴリズムの全体的な正確性を改善することに関する。そのような方法及びシステムは、アーチファクトのない視野(FOV)を見つけることによって、病理学者がアーチファクト問題を避けることができない、全スライド解析ワークフローに適用されたときに、特に便利であることができる。しかしながら、いくつかのアーチファクトは、陽性IHC染色にきわめて類似して出現することができ、それらをIHC画像だけに基づいて陽性染色から区別することは、熟練した病理学者にとってさえも、(不可能ではない場合でも)非常に時間のかかる難しい作業であることができるので、本明細書において説明される技法は、FOVベースのワークフローも改善することができる。
より具体的には、本明細書において開示される方法及びシステムは、IHCスライド及び隣接するコントロールスライドの両方において出現するアーチファクトを検出し、排除するために、使用することができる。そのようなアーチファクトは、例えば、組織色素(例えば、メラニン、ヘモジデリンなど)、又は組織自体と関連付けられた他のアーチファクトを含み得る。
本明細書において説明される方法及びシステムは、陽性コントロールスライド及び陰性コントロールスライドに適用することができ、本明細書においては、両方のタイプが、一括して「コントロールスライド」と呼ばれる。コントロールスライドは、一般に、単一の染色剤(例えば、陰性コントロール用の青色のヘマトキシリン、及び陽性コントロール用の茶色のDAB)を用いて染色されるので、その染色剤と関連付けられた予想される色範囲の外に色がある、コントロールスライド画像におけるいずれのピクセル又は領域も、アーチファクトである可能性が高い。
図1は、本主題の開示の例示的な実施形態による、画像解析システム100のブロック図である。画像解析システム100は、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、スマートフォン、サーバ、アプリケーション固有のコンピューティングデバイス、又は本明細書において説明される技法及び動作を実行することが可能な他の任意のタイプの電子デバイスなど、1つ又は複数のコンピューティングデバイスを含み得る。いくつかの実施形態においては、画像解析システム100は、単一のデバイスとして実施され得る。他の実施形態においては、画像解析システム100は、本明細書において説明される様々な機能を一緒に達成する2つ以上のデバイスの組み合わせとして実施され得る。例えば、画像解析システム100は、1つもしくは複数のローカルエリアネットワーク、及び/又はインターネットなどのワイドエリアネットワークを介して、互いに通信可能に結合された、1つ又は複数のサーバコンピュータと、1つ又は複数のクライアントコンピュータとを含み得る。
図1に示されるように、画像解析システム100は、メモリ116と、プロセッサ117と、ディスプレイ118とを含み得る。メモリ116は、ランダムアクセスメモリ(RAM)、並びに電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、フラッシュメモリ、ハードドライブ、ソリッドステートドライブ、及び光ディスクなどのリードオンリメモリなど、任意のタイプの揮発性又は不揮発性メモリの任意の組み合わせを含み得る。簡潔にする目的で、メモリ116は、図1においては、単一のデバイスとして示されているが、メモリ116は、2つ以上のデバイスにわたって分散させることもできることが理解される。
プロセッサ117は、中央処理ユニット(CPU)、グラフィカル処理ユニット(GPU)、専用信号又は画像プロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、及びテンソル処理ユニット(TPU)など、任意のタイプの1つ又は複数のプロセッサを含み得る。簡潔にする目的で、プロセッサ117は、図1においては、単一のデバイスとして示されているが、プロセッサ117は、任意の数のデバイスにわたって分散させることもできることが理解される。
ディスプレイ118は、LCD、LED、OLED、TFT、プラズマなどの任意の適切な技術を使用して、実施され得る。いくつかの実施においては、ディスプレイ118は、タッチセンシティブディスプレイ(タッチスクリーン)であってよい。
図1に示されるように、画像解析システム100は、また、画像位置合わせエンジン111と、アーチファクト検出エンジン112と、画像解析エンジン113とを含み得る。これらのモジュールは、図1においては、スタンドアロンモジュールとして示されているが、各モジュールが、代わりに、複数のサブモジュールとして実施され得ること、及びいくつかの実施形態においては、2つ以上のモジュールを組み合わせて、単一のモジュールにすることができることが当業者には明らかである。さらに、いくつかの実施形態においては、システム100は、簡潔にするために図1に示されていない、追加のエンジン及びモジュール(例えば、入力デバイス、ネットワーク接続及び通信モジュールなど)を含み得る。さらに、いくつかの実施形態においては、図1に示されるブロックのいくつかは、無効化されてよく、又は省かれてよい。以下でより詳細に説明されるように、システム100のモジュールの機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせで、実施することができる。
図1に示されるように、いくつかの実施形態においては、画像解析システム100は、画像獲得システム120に通信可能に結合され得る。画像獲得システム120は、生物試料の画像を獲得し、それらの画像を、解析及びユーザへの提示のために、画像解析システム100に提供し得る。
画像獲得システム120は、H&E、IHC、ISH、FISH、又は他の任意の染色プロセスを使用して、生物試料スライドを染色するための、自動染色プラットフォーム123を含み得る。市販の染色プラットフォームは、例えば、Ventana Medical Systems, Inc.による、HE 600、BENCHMARK XT、及びBENCHMARK ULTRA製品を含む。画像獲得システム120は、また、高解像度の全スライドデジタル画像を生成するために、20×、40×、又は他の倍率で、染色されたスライドをスキャンすることができる、スライドスキャナなどの、スキャニングプラットフォーム125を含んでよい。市販のスライドスキャナは、例えば、Ventana Medical Systems, Inc.による、VENTANA iScan HT、及びiScan Coreo製品を含む。
スキャニングプラットフォーム125によって生成された画像は、画像解析システム100に、又は画像解析100によってアクセス可能なサーバもしくはデータベースに移送され得る。いくつかの実施形態においては、画像は、1つ又は複数のローカルエリアネットワーク及び/又はワイドエリアネットワークを介して、自動的に移送され得る。いくつかの実施形態においては、画像解析システム100は、スキャニングプラットフォーム125、及び/又は画像獲得システム120の他のモジュールと統合されてよく、又はそれらに含まれてよく、そのケースにおいては、画像は、例えば、プラットフォーム125及びシステム120の両方によってアクセス可能なメモリを通して、画像解析システムに移送され得る。いくつかの実施形態においては、画像獲得システム120は、画像解析システム100に通信可能に結合されないことがあり、そのケースにおいては、画像は、任意のタイプの不揮発性記憶媒体(例えば、フラッシュメモリ)上に記憶され、媒体から画像解析システム100に、又はそれに通信可能に結合されたサーバもしくはデータベースにダウンロードされ得る。上述の例のいずれにおいても、画像解析システム100は、生物標本の画像を獲得し得、標本は、スライドに貼り付けられ、染色プラットフォーム123によって染色され得、スライドは、スライドスキャナ又は別のタイプのスキャニングプラットフォーム125によってスキャンされ得る。しかしながら、他の実施形態においては、以下で説明される技法は、他の手段を通して獲得された生物標本の画像にも適用され得ることが理解される。
いくつかの実施形態においては、画像解析システム100は、コントロール画像(陰性コントロールスライド又は陽性コントロールスライドの画像)、及びIHC画像(コントロールスライドに隣接するIHCスライドの画像)を獲得し、画像位置合わせエンジン111に渡し得る。本明細書において使用される場合、「隣接スライド」は、同じ組織ブロックから切り取られた組織切片を含むスライドのことを指す。いくつかの実施形態においては、2つの組織切片は、そのブロックから切り取られた最も近い2つの切片とすることができる。他の実施形態においては、2つの切片は、必ずしもそのブロックからの最も近い切片でなくてよいが、互いにまだ十分に近い近傍内(例えば、10μm又は20μm以内)にあり得る。
コントロール画像及びIHC画像を獲得した後、画像位置合わせエンジン111は、「位置合わせ」と呼ばれるプロセスにおいて、2つの画像を整列させ得る。いくつかの実施形態においては、エンジン111は、画像を整列させるために、以下の位置合わせ方法を使用し得る。I1がIHC画像を表し、I2がコントロール画像を表すと仮定する。{x1,i,y1,i}は、画像I1についての第iの細胞中心を表すとする。同様に、{x2,i,y2,i}は、画像I2についての第iの細胞中心を表すとする。画像I1において検出された細胞がN1個、画像I2において検出された細胞がN2個存在したと仮定する。D(P1,P2)は、2つの点集合P1及びP2の間において計算された距離であるとし、ここで、P1={x1,i,y1,i}、i=1、...、i=N1、P2={x2,i,y2,i}、i=1、...、i=N2であり、それぞれ、I1及びI2に対応する。
いくつかの実施形態においては、I1とI2との間の潜在的な回転、偏移、及び他のタイプの特別な変形(例えば、せん断又は反転)を補償するために、エンジン111は、プロクラステス法(Procrustes method)又は他の任意の適切な方法を使用して、2つの画像間のアフィン変換(affine transformation)を計算し得る。変換関数を計算した後、エンジン111は、それを使用して、点集合P1を変換された点集合P1’に変換し得る。その場合、D(P1,P2)は、P2内のあらゆる点とP1’内の最も近い点との間の平均距離として、計算することができる。他の実施形態においては、エンジン111は、代わりに、点集合P2を変換された点集合P2’に変換し、P1内のあらゆる点とP2’内の最も近い点との間の平均距離として、D(P1,P2)を計算し得る。
平均距離D(P1,P2)を計算した後、エンジン111は、平均距離に基づいて、画像I1とI2が構造的に類似しているかどうかを決定し得る。いくつかの実施形態においては、「構造的に類似」とは、細胞核のほとんど又はすべての位置、TMAコア、針生検、及び/又は他の任意のタイプの関心の対象が、両方の画像において実質的に類似していることを意味することができる。いくつかの実施形態においては、エンジン111は、平均距離D(P1,P2)を事前定義された閾値と比較し、平均距離がその事前定義された閾値を下回る場合かつその場合に限って、画像が構造的に類似していると決定し得る。
示されるように、図2は、上の行に、点集合P1を含む画像211と、点集合P2を含む隣接画像212と、点集合P2上に重ね合わされた変換された(90度回転された)点集合P1’を示す画像213とを示している。この例においては、点集合P1’及びP2は、よく一致しており、隣接画像211及び212の間における構造的類似性を示している。対照的に、下の行に、図2は、点集合P1を含む画像231と、点集合P2を含む隣接画像232と、互いに重ね合わされた2つの点集合を示す画像233とを示している。最も最適な変換関数でさえも、P1がP2に一致するように、すなわち、D(P1,P2)が相対的に低くなるように、P1を変換することができないことが、この例から明らかである。したがって、この例においては、隣接画像231及び232の間における構造的類似性は、おそらく、存在しない。
いくつかの実施形態においては、画像位置合わせエンジン111によって2つの画像が構造的に類似していると決定されたとき、アーチファクト検出エンジン112は、コントロール画像を獲得し、それを処理して、アーチファクトを検出し得る。他の実施形態においては、エンジン112は、画像位置合わせエンジン111によって実行される画像位置合わせプロセスと並列して、アーチファクト検出プロセス又はそれの部分を実行し得る。
アーチファクト検出エンジン112は、コントロール画像におけるアーチファクトを検出するために、任意の適切なアルゴリズムを使用することができる。一実施形態においては、アーチファクトは、輝度ベースの閾値方法を使用して、検出することができる。例えば、エンジン112は、陰性コントロール画像のグレースケールバージョンを獲得し、輝度がより高いピクセル(例えば、輝度が事前定義された閾値よりも高いピクセル)は、対比染色領域に対応し、一方、残りのピクセル(例えば、輝度が事前定義された閾値以下のピクセル)は、アーチファクトに対応すると決定し得る。別の例においては、エンジン112は、陽性コントロール画像のグレースケールバージョンを獲得し、輝度がより低いピクセル(例えば、輝度が第1の閾値よりも低いピクセル)は、陽性染色領域に対応し、輝度がより高いピクセル(例えば、輝度が第2の閾値よりも高いピクセル)は、画像背景に対応し、残りのピクセル(例えば、輝度が第1の閾値と第2の閾値の間にあるピクセル)は、アーチファクトに対応すると決定してよい。
別の実施形態においては、アーチファクト検出エンジン112は、(例えば、メモリ116から、又はユーザからの入力を介して)すべての可能な非アーチファクト色(例えば、陰性コントロールスライドにおける対比染色の色、又は陽性コントロールスライドにおける染色の色)に対応する事前定義された色範囲を獲得し得る。事前定義された色範囲は、例えば、1次元、2次元、又は3次元空間(例えば、LAB色空間)において定義され得、1次元色空間範囲は、輝度範囲と呼ぶこともできる。事前定義された色/輝度範囲を獲得した後、エンジン112は、色/輝度が事前定義された色/輝度範囲の外にあるいずれのピクセルも、アーチファクトであると決定し得る。他の実施形態においては、エンジン112は、また、背景を表す色/輝度範囲を獲得し、色/輝度範囲が事前定義された色/輝度範囲及び背景の色/輝度範囲の両方の外にあるいずれのピクセルも、アーチファクトであると決定し得る。いくつかの実施形態においては、染色、対比染色、及び/又は背景に対応する事前定義された色/輝度範囲を獲得する代わりに、エンジン112は、例えば、色/輝度ヒストグラムにおいて1つ又は2つの最も高いピークを見つけ、ピークが背景及び染色又は対比染色に対応すると定めることによって、コントロール画像を解析し、これらの範囲を自動的に決定し得る。
アーチファクトの位置(例えば、ただ1つ又はほとんどのアーチファクトピクセルを含む領域の位置)を決定した後、アーチファクト検出エンジン112は、例えば、(上で説明された)画像位置合わせエンジン111によって計算された変換関数を使用して、すべてのアーチファクト候補をコントロール画像からIHC画像にマッピングし得る。アーチファクトがIHC画像にマッピングされた後、アーチファクトマッピングエンジン112は、IHC画像におけるアーチファクトの位置を、画像解析エンジン113に渡し得る。
画像解析エンジン113が、IHC画像におけるアーチファクトの位置を獲得した後、それは、そのようなアーチファクトをそれの解析から排除し得る。言い換えると、画像解析エンジン113が、その後、IHC画像に対する画像解析アルゴリズムを実行するとき、それは、いずれのアーチファクトも無視し得、又はアーチファクトを含む、もしくは少なくとも事前定義されたパーセンテージのアーチファクトを含むいずれの領域も無視し得る。本明細書において使用される場合、「領域」という用語は、例えば、事前定義された半径の円、及び事前定義されたサイズの長方形(例えば、スライドタイル又はFOV)など、事前定義されたサイズのエリアに対応することができる。
いくつかの実施形態においては、IHC画像におけるアーチファクト領域が、識別された後、解析エンジン113は、ディスプレイ118上において、それらの領域を強調し得、又はそれらの領域に輪郭付けを行い得、それによって、ユーザが、例えば、それらをより大きく又はより小さくすること、人手で追加領域を描くこと、及び識別された領域のいくつかを取り消すこと(すなわち、それらを非アーチファクト領域としてマークすること)などによって、領域を変更することを可能にする。
アーチファクト領域が識別され、任意選択で、ユーザによって変更された後、画像解析エンジン113は、それらの領域を解析から排除しながら、IHC画像に対する画像解析を実行することができる。例えば、画像解析は、スライド全体、又は組織によって覆われたエリアの少なくとも大きな部分(例えば、50%超)にわたって、様々なタイプの細胞(例えば、すべて又はあるタイプの染色細胞及び/又は非染色細胞)、それらの輝度、比などをカウントする、全スライドスコアリングアルゴリズムであってよい。アルゴリズムは、いくつかのアーチファクトを、染色された細胞又は他のタイプの重要な対象として、誤って識別することができていたので、アーチファクト領域をアルゴリズムの計算から排除(すなわち、無視)することは、アルゴリズムの正確性を改善することができる。
図3〜図5は、異なるタイプのアーチファクトを有する様々な標本を示すことによって使用する、上で説明された方法のいくつかを示している。図3は、メラノーマ試料の2つの領域を示しており、陰性コントロール(NC)画像の領域1は、メラニンに起因する暗斑を有し、一方、NC画像の領域2は、そのような斑点を有さない。したがって、この例においては、IHC画像が、画像位置合わせエンジン111によって、隣接NC画像に構造的に類似していると決定された場合、アーチファクト検出エンジン112によって、NC画像の領域1において検出されたメラニン色素は、そのエンジンによって、IHC画像の対応する領域1(左上)にマッピングされ、領域全体は、画像解析エンジン113が、IHC画像に対して、全スライド画像解析アルゴリズムを実行するとき、画像解析エンジン113によって排除することができる。IHC画像の領域1における暗斑の多くは、やはりメラニンに起因する可能性が高く、陽性DAB染色に起因する可能性は高くないので、これは、有利である。対照的に、この例におけるアーチファクト検出エンジン112は、NC画像の領域2において、いずれの暗斑も検出しない。したがって、IHC画像のマッピングされた領域2(左下)における暗斑は、すべて、DAB染色に起因する可能性が高く、領域は、排除されず、画像処理アルゴリズムによって解析される。
同様に、図4は、腎細胞がん(RCC:renal cell carcinoma)における色素検出の例を示しており、領域1は、ヘモジデリン色素を含み、領域2は、含まない。本明細書において説明される方法及びシステムを使用して検出し、解析から排除することができる、広範囲のアーチファクトをさらに示すために、図5は、1つはトリプルネガティブ乳がん(TNBC:triple negative breast cancer)標本のNC領域、1つは腎細胞がん(RCC)標本のNC領域である、2つの追加のNC領域を示している。この例においては、両方のNC領域は、色素を含み、それは、両方の領域が、IHC画像上にマッピングされ、その後、それぞれのIHC画像の全スライド解析から排除されることを意味する。
いくつかの実施形態においては、上で説明された技法は、FOVベースのアルゴリズムにも適用することができ、ユーザは、(例えば、IHC画像において)ユーザが画像解析アルゴリズムを実行したいと望む、1つ又は複数のFOVを選択する。例えば、画像位置合わせエンジン111は、IHC画像及び隣接コントロールスライドが構造的に類似しているかどうかを決定するために、上で説明された技法を使用することができる。類似している場合、アーチファクトエンジン112は、上で説明された技法を使用して、選択されたFOVをIHC画像から隣接コントロールスライドにマッピングし、コントロールスライドのマッピングされたFOVが、いずれかのアーチファクト(又は事前定義された閾値を超える量/パーセンテージのアーチファクト)を含むかどうかを決定することができる。画像解析エンジン113は、その後、アーチファクトを含むあらゆるFOVについてユーザに通知し、ユーザが代わりに別のFOVを選択することを可能にすることができる。図6は、例示的なIHC画像610と、隣接NC画像620と、IHC画像から隣接NC画像620にマッピングされた2つのFOV(FOV1及びFOV2)とを示している。この例においては、NC FOVのどちらも、いかなる暗い染みも有するようには見えず、それは、対応するIHC FOVにおけるすべての染みが、DAB染色に起因する可能性が高く、色素などのアーチファクトに起因する可能性が高くないことを意味する。
図7は、自動的に(ユーザからのいかなる入力もなしに)アーチファクト領域を検出し、画像解析(例えば、全スライド画像解析)から排除するための、例示的な方法700のフローチャートを示している。方法700は、例えば、上で説明された画像解析システム100の様々なモジュールによって実行され得る。方法700は、例えば、少なくとも1つの非一時的マシン可読記憶媒体(例えば、メモリ116)に記憶され、少なくとも1つのプロセッサ又はプロセッサコア(例えば、プロセッサ117)によって実行される実行可能命令の形態で、実施され得る。方法700は、電子回路(例えば、ハードウェア)の形態で、又は電子回路とプロセッサによって実行可能な命令との何らかの組み合わせの形態で、実施され得る。方法700のいくつかのブロックは、実質的に同時に、又は図7に示されるのと異なる順序で実行されてよいこと(例えば、ステップ710及び720は、ときには、同時に実行されてよく、又はステップ730及び740の後に実行されてよいこと)、方法700は、図7に示されるよりも多い又は少ないブロックを含んでよいこと、並びに方法700のいくつかのブロックは、ある時点において進行中であってよく、及び/又は繰り返してよいことが、方法700についての以下の説明に基づいて、当業者によって理解されよう。
方法700は、ブロック710において、開始し得、上で説明されたように、IHC画像を隣接コントロール画像と整列させることができる。ブロック720において、IHC画像が隣接コントロール画像と構造的に類似しているかどうかが、決定され得る。類似している場合、ブロック730において、アーチファクトが、コントロール画像において検出され得る。ブロック740において、いずれかのアーチファクトが検出されたかどうかが、決定され得る。検出された場合、ブロック750において、アーチファクトを含む領域をコントロール画像からIHC画像にマッピングすることができ、ブロック760において、マッピングされたIHC領域を全スライド画像解析から排除することができる。
上で言及されたように、方法700のステップの順序は、限定的ではなく、様々な実施形態においては、方法のいくつかのステップは、異なる順序で、及び/又は並列して実行することができる。例えば、いくつかの実施形態においては、アーチファクト検出は、コントロール画像に対して確実に実行することができ、いくつかのアーチファクト領域が検出された場合にだけ、IHC画像とコントロール画像とを位置合わせすることができる。画像が位置合わせされた後、各アーチファクト領域をコントロール画像からIHC画像にマッピングすることができ、画像間の構造的類似性を決定することができる。この実施形態においては、
図8は、FOV内において自動的に(ユーザからのいかなる入力もなしに)アーチファクト領域を検出するための、例示的な方法800のフローチャートを示している。方法800は、例えば、上で説明された画像解析システム100の様々なモジュールによって実行され得る。方法800は、例えば、少なくとも1つの非一時的マシン可読記憶媒体(例えば、メモリ116)に記憶され、少なくとも1つのプロセッサ又はプロセッサコア(例えば、プロセッサ117)によって実行される実行可能命令の形態で、実施され得る。方法800は、電子回路(例えば、ハードウェア)の形態で、又は電子回路とプロセッサによって実行可能な命令との何らかの組み合わせの形態で、実施され得る。方法800のいくつかのブロックは、実質的に同時に、又は図8に示されるのと異なる順序で実行されてよいこと、方法800は、図8に示されるよりも多い又は少ないブロックを含んでよいこと、並びに方法800のいくつかのブロックは、ある時点において進行中であってよく、及び/又は繰り返してよいことが、方法800についての以下の説明に基づいて、当業者によって理解されよう。
方法800は、ブロック805において、開始し得、FOVが、IHC画像において獲得され(例えば、ユーザによって選択され)得る。ブロック810において、全スライド位置合わせ方法を使用して、IHC画像を隣接コントロール画像と整列させ得る。ブロック820において、IHC画像がコントロール画像と構造的に類似しているかどうかが、決定され得る。類似している場合、ブロック830において、IHC FOVをコントロール画像上にマッピングして、コントロールFOVを決定することができ、次に、アーチファクトを探して、それを解析することができる。ブロック840において、いずれかのアーチファクトがコントロールFOVにおいて検出されたかどうかが、決定され得る。検出された場合、ブロック850において、IHC FOVが、いくつかのアーチファクトを含むこと、すなわち、アーチファクトに起因し、バイオマーカに起因しない何らかの染みを含むことを、ユーザに通知することができる。
上述の説明においては、様々なデバイス、エンジン、ユニット、又はブロック(例えば、エンジン111、112、113)は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組み合わせを使用して実施可能であるとして、説明された。ハードウェアは、集積回路(IC)(例えば、特定用途向け集積回路(ASIC)もしくはフィールドプログラマブルゲートアレイ(FPGA))、又は他の任意のタイプの専用もしくは汎用電子回路など、任意のタイプのアナログ及び/又はデジタル回路を含み得ることが、上述の説明に鑑みて、当業者によって理解されなければならない。ソフトウェア又はファームウェアは、任意のタイプの有形の非一時的コンピュータ可読媒体に記憶することができる、任意のタイプのプロセッサ実行可能命令を含み得、命令は、処理リソースによって実行されて、それぞれのコンポーネントの機能を処理リソースに実施させることができることが、当業者によってさらに理解されなければならない。
実行可能命令は、メモリ116に、又は他の任意の非一時的コンピュータ可読記憶媒体に記憶することができ、それは、ランダムアクセスメモリ(RAM)、並びに電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、フラッシュメモリ、ハードドライブ、ソリッドステートドライブ、及び光ディスクなどのリードオンリメモリなど、任意のタイプの揮発性又は不揮発性メモリの任意の組み合わせとして実施することができる。非一時的コンピュータ可読媒体は、プロセッサリソースと同じデバイスに統合することができ、又はそれは、分離されていてよいが、そのデバイス又はプロセッサリソースからアクセス可能である。一例においては、プログラム命令は、インストールされたとき、プロセッサリソースによって実行されて、対応するコンポーネントを実施することができる、インストールパッケージの一部であることができる。このケースにおいては、コンピュータ可読媒体は、CD、DVD,もしくはフラッシュドライブなど、ポータブル媒体であってよく、又はそこからインストールパッケージをダウンロードして、インストールすることができるサーバによって維持されるメモリであってよい。別の例においては、プログラム命令は、アプリケーション又はインストール済みのアプリケーションの一部であってよく、コンピュータ可読媒体は、ハードドライブ、ソリッドステートドライブ、ランダムアクセスメモリ(RAM)、及びリードオンリメモリ(ROM)など、統合メモリを含んでよい。
命令を実行するための処理リソースは、例えば、プロセッサ117であることができ、又はそれは、CPU、GPU、FPGA、TPU、命令を取り出し、実行するように構成された別のタイプのプロセッサ、又はそれらの組み合わせなど、他の任意の処理リソースであることができる。処理リソースは、単一のデバイスに統合することができ、又は画像解析システム100と統合されてよい、もしくは画像解析システム100に通信可能に結合されてよい、デバイスにわたって分散させることができる。
本主題の開示の例示的な実施形態の上述の開示は、解説及び説明の目的で提示された。網羅的であること、又は主題の開示を開示された通りの形態に限定することは、意図されていない。本明細書において説明された実施形態の多くの変形及び変更が、上述の開示に照らして、当業者には明らかであろう。主題の開示の範囲は、もっぱら本明細書に添付された特許請求の範囲及びそれの均等物によって確定されるべきである。
さらに、本主題の開示の代表的な実施形態を説明する際、本明細書は、本主題の開示の方法及び/又はプロセスを、ステップの特定のシーケンスとして、提示することがあった。しかしながら、方法又はプロセスが、本明細書において説明されたステップの特定の順序に依存しない限りにおいて、方法又はプロセスは、説明されたステップの特定のシーケンスに限定されるべきではない。当業者が理解するように、ステップの他のシーケンスが、可能であってよい。したがって、本明細書において説明されたステップの特定の順序は、特許請求の範囲における限定として解釈されるべきではない。加えて、本主題の開示の方法及び/又はプロセスに関する特許請求の範囲は、書かれた順序でのステップの実行に限定されるべきではなく、シーケンスは、変化させられても、本主題の開示の主旨及び範囲内に依然として留まり得ることを、当業者は容易に理解することができる。

Claims (20)

  1. 生物試料画像を解析するための画像解析システムであって、
    免疫組織化学(IHC)画像及びコントロール画像を獲得し、前記IHC画像と前記コントロール画像が構造的に類似しているかどうかを決定するように構成された、画像位置合わせエンジンと、
    前記コントロール画像が1つ又は複数のアーチファクトを含むかどうかを決定し、前記コントロール画像が1つ又は複数のアーチファクトを含むと決定したとき、前記1つ又は複数のアーチファクトを前記コントロール画像から前記IHC画像にマッピングすることによって、前記IHC画像内における1つ又は複数のアーチファクト領域を識別するように構成された、アーチファクト検出エンジンと、
    前記IHC画像の画像解析を実行するように構成された画像解析エンジンであって、前記IHC画像と前記コントロール画像が構造的に類似しているとの決定に基づいて、前記1つ又は複数のアーチファクト領域が前記画像解析から排除される、画像解析エンジンと
    を備える、画像解析システム。
  2. 前記IHC画像及び前記コントロール画像が、同じ生物試料ブロックの組織切片に対応する、請求項1に記載の画像解析システム。
  3. 前記画像解析が、全スライドスコアリングアルゴリズムを含む、請求項1に記載の画像解析システム。
  4. 前記IHC画像が、第1の色の染色剤を用いて染色された組織スライドに対応し、前記1つ又は複数のアーチファクトが、第2の色を有し、前記第1の色が、前記第2の色と実質的に類似している、請求項1に記載の画像解析。
  5. コントロール画像が、陰性コントロールスライド又は陽性コントロールスライドの一方に対応し、前記1つ又は複数のアーチファクトが、色素を含む、請求項1に記載の画像解析。
  6. 前記IHC画像と前記コントロール画像が構造的に類似しているとの前記決定が、
    変換された画像を生成するために、アフィン変換を使用して、前記IHC画像又は前記コントロール画像を変換することと、
    前記変換された画像の中の対象と、前記IHC画像及び前記コントロール画像の残りの一方の中の対象との間の距離を計算することと、
    前記距離と事前定義された閾値との比較に基づいて、前記IHC画像と前記コントロール画像が構造的に類似していると決定することと
    を含む、請求項1に記載の画像解析。
  7. 前記コントロール画像が、対比染色を用いて染色された陰性コントロールスライドの画像であり、前記コントロール画像が1つ又は複数のアーチファクトを含むかどうかを決定することが、前記コントロール画像内のいずれかのピクセルが前記対比染色と関連付けられた色範囲の外にあるかどうかを決定することを含む、請求項1に記載の画像解析システム。
  8. 前記色範囲は、事前定義されるか、又は前記コントロール画像に基づいて動的に計算される、請求項7に記載の画像解析システム。
  9. 前記画像解析エンジンが、前記1つ又は複数のアーチファクト領域をディスプレイ上において強調するようにさらに構成される、請求項1に記載の画像解析システム。
  10. 前記画像解析エンジンが、前記1つ又は複数のアーチファクト領域をユーザ入力に基づいて変更するようにさらに構成される、請求項9に記載の画像解析システム。
  11. アーチファクト領域を検出し、画像解析から排除する方法であって、
    免疫組織化学(IHC)画像及びコントロール画像を獲得するステップと、
    前記コントロール画像が1つ又は複数のアーチファクトを含むかどうかを決定するステップと、
    前記コントロール画像が1つ又は複数のアーチファクトを含むと決定したとき、前記1つ又は複数のアーチファクトを前記コントロール画像から前記IHC画像にマッピングすることによって、前記IHC画像内における1つ又は複数のアーチファクト領域を識別するステップと、
    前記IHC画像の画像解析を実行するステップであって、前記1つ又は複数のアーチファクト領域が画像解析から排除される、ステップと
    を含む、方法。
  12. 前記IHC画像と前記コントロール画像が構造的に類似しているかどうかを決定するステップをさらに含み、前記IHC画像と前記コントロール画像が構造的に類似している場合かつその場合に限って、前記1つ又は複数のアーチファクト領域が前記画像解析から排除される、請求項11に記載の方法。
  13. 前記IHC画像と前記コントロール画像が構造的に類似しているかどうかを決定する前記ステップが、
    変換された画像を生成するために、アフィン変換を使用して、前記IHC画像又は前記コントロール画像を変換するステップと、
    前記変換された画像の中の対象と、前記IHC画像及び前記コントロール画像の残りの一方の中の対象との間の距離を計算するステップと、
    前記距離と事前定義された閾値との比較に基づいて、前記IHC画像と前記コントロール画像が構造的に類似していると決定するステップと
    を含む、請求項12に記載の方法。
  14. 前記画像解析が、全スライドスコアリングアルゴリズムを含む、請求項11に記載の方法。
  15. 前記コントロール画像が、対比染色を用いて染色された陰性コントロールスライドの画像であり、前記コントロール画像が1つ又は複数のアーチファクトを含むかどうかを決定するステップが、前記コントロール画像内のいずれかのピクセルが前記対比染色と関連付けられた色範囲の外にあるかどうかを決定するステップを含む、請求項11に記載の方法。
  16. 画像解析システムのプロセッサによって実行されたときに、前記画像解析システムに、
    IHCスライドの免疫組織化学(IHC)画像の視野(FOV)を獲得することと、
    前記IHCスライドと関連付けられたコントロールスライドのコントロール画像を獲得することと、
    コントロールFOVを獲得するために、前記FOVを前記IHC画像から前記コントロール画像にマッピングすることと、
    前記コントロールFOV内においてアーチファクトを検出することと、
    前記コントロールFOVにおいていずれかのアーチファクトが検出されたかどうかを、ユーザに通知することと
    を行わせる命令を記憶した、非一時的コンピュータ可読媒体。
  17. 前記IHCスライド及び前記コントロールスライドが、同じ組織ブロックに属する組織切片を含む、請求項16に記載の非一時的コンピュータ可読媒体。
  18. 前記命令が、前記プロセッサによって実行されたときに、前記画像解析システムに、前記IHC画像と前記コントロール画像が構造的に類似しているかどうかを決定することと、前記IHC画像と前記コントロール画像が構造的に類似しており、前記コントロールFOVにおいていずれかのアーチファクトが検出された場合かつその場合に限って、前記ユーザに通知することとをさらに行わせる、請求項16に記載の非一時的コンピュータ可読媒体。
  19. 前記命令が、前記プロセッサによって実行されたときに、前記画像解析システムに、
    変換された画像を生成するために、アフィン変換を使用して、前記IHC画像又は前記コントロール画像を変換することと、
    前記変換された画像の中の対象と、前記IHC画像及び前記コントロール画像の残りの一方の中の対象との間の距離を計算することと、
    前記距離と事前定義された閾値との比較に基づいて、前記IHC画像と前記コントロール画像が構造的に類似していると決定することと
    をさらに行わせる、請求項18に記載の非一時的コンピュータ可読媒体。
  20. 前記コントロール画像が、対比染色を用いて染色された陰性コントロールスライドの画像であり、前記コントロールFOV内において前記アーチファクトを検出することが、前記コントロールFOV内のいずれかのピクセルが前記対比染色と関連付けられた色範囲の外にあるかどうかを決定することを含む、請求項16に記載の非一時的コンピュータ可読媒体。
JP2018545836A 2016-03-01 2017-03-01 コントロールスライドを使用する改善された画像解析アルゴリズム Active JP6960935B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662302062P 2016-03-01 2016-03-01
US62/302,062 2016-03-01
US201762464972P 2017-02-28 2017-02-28
US62/464,972 2017-02-28
PCT/US2017/020245 WO2017151799A1 (en) 2016-03-01 2017-03-01 Improved image analysis algorithms using control slides

Publications (2)

Publication Number Publication Date
JP2019513255A true JP2019513255A (ja) 2019-05-23
JP6960935B2 JP6960935B2 (ja) 2021-11-05

Family

ID=59744373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018545836A Active JP6960935B2 (ja) 2016-03-01 2017-03-01 コントロールスライドを使用する改善された画像解析アルゴリズム

Country Status (6)

Country Link
US (2) US10937162B2 (ja)
EP (1) EP3424019A4 (ja)
JP (1) JP6960935B2 (ja)
AU (1) AU2017226252A1 (ja)
CA (1) CA3012360C (ja)
WO (1) WO2017151799A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023508025A (ja) * 2019-12-20 2023-02-28 ロッシュ ダイアグノスティクス ヘマトロジー インコーポレイテッド 直線性管理組成物および使用方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3012360C (en) 2016-03-01 2021-12-14 Ventana Medical Systems, Inc. Improved image analysis algorithms using control slides
US10453221B2 (en) * 2017-04-10 2019-10-22 Intel Corporation Region based processing
KR102037117B1 (ko) * 2017-08-02 2019-11-29 재단법인 아산사회복지재단 구조유사도를 이용한 아티펙트 저감방법 및 프로그램 및 의료영상획득장치
US12026875B2 (en) * 2019-03-28 2024-07-02 Hoffmann-La Roche, Inc. Machine learning using distance-based similarity labels
WO2022225845A1 (en) * 2021-04-18 2022-10-27 Mary Hitchcock Memorial Hospital, For Itself And On Behalf Of Dartmouth-Hitchcock Clinic System and method for automation of surgical pathology processes using artificial intelligence

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015124777A1 (en) * 2014-02-21 2015-08-27 Ventana Medical Systems, Inc. Medical image analysis for identifying biomarker-positive tumor cells

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7171030B2 (en) * 2000-11-30 2007-01-30 University Of Medicine & Denistry Of New Jersey Systems for analyzing microtissue arrays
US8185317B2 (en) * 2003-06-12 2012-05-22 Cytyc Corporation Method and system of determining the stain quality of slides using scatter plot distribution
EP2533192B1 (en) * 2003-07-28 2017-06-28 Olympus Corporation Image processing apparatus, image processing method, and distortion correcting method
US20050123181A1 (en) * 2003-10-08 2005-06-09 Philip Freund Automated microscope slide tissue sample mapping and image acquisition
EP2013233A2 (en) * 2006-03-31 2009-01-14 Transmolecular, Inc. Use of tm-601 for the diagnosis and treatment of tumors
WO2008016679A2 (en) * 2006-08-02 2008-02-07 24Eight Llc Wireless detection and alarm system for monitoring human falls and entries into swimming pools by using three dimensional acceleration and wireless link energy data method and apparatus
US8060348B2 (en) * 2006-08-07 2011-11-15 General Electric Company Systems for analyzing tissue samples
US8975026B2 (en) * 2007-01-16 2015-03-10 Somalogic, Inc. Method for generating aptamers with improved off-rates
WO2008123969A1 (en) * 2007-04-02 2008-10-16 The Trustees Of The University Of Pennsylvania Combined feature ensemble mutual information image registration
WO2009072098A1 (en) 2007-12-04 2009-06-11 University College Dublin, National University Of Ireland Method and system for image analysis
US8416405B2 (en) * 2008-08-08 2013-04-09 Chemimage Corporation Raman chemical imaging of implantable drug delivery devices
US8644547B2 (en) * 2008-11-14 2014-02-04 The Scripps Research Institute Image analysis platform for identifying artifacts in samples and laboratory consumables
EP2394295A2 (en) * 2009-02-06 2011-12-14 KLA-Tencor Corporation Selecting one or more parameters for inspection of a wafer
US8077959B2 (en) * 2009-09-30 2011-12-13 General Electric Company Stain-based optimized compression of digital pathology slides
EP2369551B1 (en) * 2010-03-25 2019-10-30 Emory University Imaging system and method
US20120259574A1 (en) * 2011-04-05 2012-10-11 Chenmin Hu Designed-based yield management system
US8718350B2 (en) * 2011-04-08 2014-05-06 Regents Of The University Of Minnesota Computerized methods for tissue analysis
CN103959332B (zh) * 2011-11-17 2017-05-17 皇家飞利浦有限公司 图像处理
US9488639B2 (en) * 2013-02-25 2016-11-08 Flagship Biosciences, Inc. Cell-based tissue analysis
US9786050B2 (en) * 2013-03-15 2017-10-10 The Board Of Trustees Of The University Of Illinois Stain-free histopathology by chemical imaging
CA2899714C (en) * 2013-03-15 2020-10-27 Ventana Medical Systems, Inc. Tissue object-based machine learning system for automated scoring of digital whole slides
US10820881B2 (en) * 2013-08-02 2020-11-03 Adm Diagnostics, Inc. Method for analyzing and correcting measurement variability in PET images
AU2014333927A1 (en) * 2013-10-07 2016-03-03 Ventana Medical Systems, Inc. Systems and methods for comprehensive multi-assay tissue analysis
US10209165B2 (en) * 2014-03-10 2019-02-19 Visiopharm A/S Assessment of staining quality
EP3175390A1 (en) * 2014-08-01 2017-06-07 Katholieke Universiteit Leuven System for interpretation of image patterns in terms of anatomical or curated patterns
US9558389B2 (en) * 2015-03-24 2017-01-31 Intel Corporation Reliable fingertip and palm detection
CA3012360C (en) * 2016-03-01 2021-12-14 Ventana Medical Systems, Inc. Improved image analysis algorithms using control slides
US10504224B1 (en) * 2016-12-31 2019-12-10 Flagship Biosciences, Inc. Method for detecting immunostaining below the threshold of visual perception

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015124777A1 (en) * 2014-02-21 2015-08-27 Ventana Medical Systems, Inc. Medical image analysis for identifying biomarker-positive tumor cells

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023508025A (ja) * 2019-12-20 2023-02-28 ロッシュ ダイアグノスティクス ヘマトロジー インコーポレイテッド 直線性管理組成物および使用方法
JP7377980B2 (ja) 2019-12-20 2023-11-10 ロッシュ ダイアグノスティクス ヘマトロジー インコーポレイテッド 直線性管理組成物および使用方法

Also Published As

Publication number Publication date
AU2017226252A1 (en) 2018-07-26
EP3424019A1 (en) 2019-01-09
US20190026895A1 (en) 2019-01-24
US11620751B2 (en) 2023-04-04
CA3012360A1 (en) 2017-09-08
WO2017151799A1 (en) 2017-09-08
EP3424019A4 (en) 2019-10-23
JP6960935B2 (ja) 2021-11-05
US10937162B2 (en) 2021-03-02
CA3012360C (en) 2021-12-14
US20210150716A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
US11620751B2 (en) Image analysis algorithms using control slides
US10657643B2 (en) Medical image analysis for identifying biomarker-positive tumor cells
US20230186657A1 (en) Convolutional neural networks for locating objects of interest in images of biological samples
JP7228688B2 (ja) 改善された核検出およびセグメンテーションを可能にする画像強化
CN107111874B (zh) 用于共表达分析的系统和方法
JP7197584B2 (ja) デジタル病理学分析結果の格納および読み出し方法
RU2690224C2 (ru) Обследующее устройство для обработки и анализа изображения
US10388014B2 (en) Vessel analysis in multiplexed images
EP3729371B1 (en) System and method for generating selective stain segmentation images for cell types of interest
JP2009115599A (ja) 評価システム、評価方法および評価プログラム
JP2016533475A (ja) 適応的病理組織画像分解のためのシステム及び方法
US11176412B2 (en) Systems and methods for encoding image features of high-resolution digital images of biological specimens
JP7011035B2 (ja) 染色された標本画像内で細胞を検出するための自動化された方法およびシステム
JP7214756B2 (ja) ステイン集合体における信号の定量
JPWO2019065105A1 (ja) 画像解析装置、方法およびプログラム
JP2022163056A (ja) 1つ又は複数の組織サンプルにおける細胞組成情報を決定する装置
US20090304244A1 (en) Method and a system for presenting sections of a histological specimen
JP7011067B2 (ja) 膜特徴に基づいて組織画像内で細胞を分類するためのシステム及び方法
Niederlein et al. Image analysis in high content screening
WO2023107844A1 (en) Label-free virtual immunohistochemical staining of tissue using deep learning
Shimoni et al. Normalized polarization ratios for the analysis of cell polarity
WO2024145216A1 (en) Systems and methods for tissue bounds detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211012

R150 Certificate of patent or registration of utility model

Ref document number: 6960935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250