JP7153095B2 - 生体試料の複数の画像を表示するための画像処理システムおよび方法 - Google Patents

生体試料の複数の画像を表示するための画像処理システムおよび方法 Download PDF

Info

Publication number
JP7153095B2
JP7153095B2 JP2021001982A JP2021001982A JP7153095B2 JP 7153095 B2 JP7153095 B2 JP 7153095B2 JP 2021001982 A JP2021001982 A JP 2021001982A JP 2021001982 A JP2021001982 A JP 2021001982A JP 7153095 B2 JP7153095 B2 JP 7153095B2
Authority
JP
Japan
Prior art keywords
image
images
displayable
preprocessed
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021001982A
Other languages
English (en)
Other versions
JP2021073566A (ja
Inventor
バーンズ,マイケル
チェン,ティーン
シェフドテル,クリストフ
タブス,アリサ
ビフルコ,カルロ
Original Assignee
ベンタナ メディカル システムズ, インコーポレイテッド
プロヴィデンス・ヘルス・アンド・サービシーズ-オレゴン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベンタナ メディカル システムズ, インコーポレイテッド, プロヴィデンス・ヘルス・アンド・サービシーズ-オレゴン filed Critical ベンタナ メディカル システムズ, インコーポレイテッド
Publication of JP2021073566A publication Critical patent/JP2021073566A/ja
Application granted granted Critical
Publication of JP7153095B2 publication Critical patent/JP7153095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B40/00ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16BBIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
    • G16B45/00ICT specially adapted for bioinformatics-related data visualisation, e.g. displaying of maps or networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biotechnology (AREA)
  • Evolutionary Biology (AREA)
  • Bioethics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Biophysics (AREA)
  • Image Processing (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

[0001] 本開示は、医療診断用の撮像に関する。更に特定すれば、本開示は、視野(FOV:field of view)画像の調和した表示および変換に関する。
[0002] 組織切片、血液、細胞培養等のような生体試料の分析において、生体試料は、染料の1つ以上の組み合わせによって染色され、結果的に得られたアッセイが、更なる分析のために、視認または撮像される。アッセイを観察すると、種々のプロセスが可能になり、これらのプロセスには、疾病の診断、処置に対する応答の評価、および疾病と闘うための新たな薬剤の開発が含まれる。アッセイは、試料内におけるタンパク質、タンパク質断片、またはその他の対象物体に結合する(bind)抗体に共役された(conjugated)1つ以上の染料を含む。これらのことを以下ではターゲット(target)またはターゲット物体と呼ぶ。試料においてターゲットを染料に結合する抗体またはその他の複合体(compound)を、本開示では、バイオマーカと呼ぶ。一部のバイオマーカは染料に対して固定関係を有し(例えば、しばしば使用される対比染色ヘマトキシリン)、一方他のバイオマーカでは、新たなアッセイを開発および作成するために染料の選択を使用することができる。染色に続いて、組織試料の内容の更なる分析のために、アッセイを撮像することができる。スライド全体の画像は、通例、ホール・スライド画像、または単純に、ホール・スライドと呼ばれる。
[0003] 通例、浸潤度の計算では、科学者は、例えば、同じ組織ブロック内において複数のタンパク質または核酸等を検出または定量化するために、組織の一片を染色することを伴う多重アッセイ、または隣接する連続組織切片を染色することを伴う単純アッセイを使用する。利用可能になった染色スライドによって、免疫学的データ、例えば、免疫細胞の種類、密度、および位置を、腫瘍組織標本(sample)から推定することができる。このデータは、大腸癌の患者の生存(survival)を予測するために使用することができ、重要な予後的役割を明示することが報告されている。
[0004] 湿潤度計算のための従前からのワークフローでは、病理学者または生物学者のような専門家の読み手(expert reader)が、初期ステップとして、ディスプレイ上におい
て既に走査/ディジタル化されているスライドを見直すまたはスライドの画像を読み取ることによって、手作業で代表的な視野(FOV)または対象領域(ROI)を顕微鏡の下で選択する。組織スライドが走査されるとき、走査された画像は独立した読み手によって目視され、読み手の個人的好みに基づいてFOVに手作業マークされる。FOVを選択した後、コンピュータは、各FOVにおいて自動アルゴリズムによって免疫細胞の数量(counts)を生成するか、または病理学者/読み手が、選択されたFOV内において手作業で免疫細胞の個数を数える。異なる読み手が異なるFOVを選択して数える可能性があるので、手作業でのFOVの選択および計数は、非常に主観的であり、読み手よって偏りが生ずる。したがって、湿潤度の研究はもはや再現可能ではない。視野の選択を自動化することによって、均一な方法を適用し、個々の読み手の主観性を低減する。更に、FOV選択を実行するために低解像度の画像を使用することによって、計算効率が向上し、分析者が素早く組織領域の分析に進むことが可能になる。
[0005] 組織標本のビューは、いずれの1つからでも、疾病状態の様々な診断が可能になるのはよくあることである。様々な異なるビューの厄介な試験は、いずれの特定の診断においても焦点を絞るためには、専門家の読み手の記憶に頼らなければならない。
[0006] 先行技術は、例えば、Graham et al.によるUS2003/0210262を
含む。これは、大まかには、互いに隣接する顕微鏡スライドの同じ領域の少なくとも2つのビューを表示し、これらのビューは異なる照明条件を提供し(offer)、目視デバイスは
同様の直線的平行移動を提供する。
[0007] 最後に、Ruddle et al.によるUS2012/0320094は、概略的に、
目視画面上において互いに隣接する同じ領域の少なくとも2つの顕微鏡スライド画像を異なる倍率で表示することを教示する。
[0008] FOVの自動識別は、US62/005,222およびPCT/EP2015/062015に開示されている。これらの文献をここで引用したことにより、その内容全体が本願にも含まれるものとする。
[0010] 本発明は、独立請求項1および9において特許請求するように、生体組織領域の複数の画像を表示するための画像処理方法、およびそれぞれの画像処理システムを提供する。本発明の実施形態、および本発明の更に別の態様は、更に別の従属請求項および独立請求項において提供する。
[0011] 「組織標本」(tissue sample)とは、本明細書において解釈する場合、解剖病
理学のためにヒトまたは動物の身体から得られた外科生検試料(surgical biopsy specimen)のような、組織領域から得られた任意の生体標本(biological sample)である。組織標本は、平伏組織標本、胸部組織標本、結腸組織標本、あるいは他の臓器または身体領域から得られた組織標本であってもよい。
[0012] 「マルチチャネル画像」(multi-channel image)とは、本明細書において解釈
する場合、核構造および組織構造のような異なる生体構造が特定の蛍光色素によって同時に染色される生体組織標本から得られたディジタル画像を包含する。蛍光色素の各々は、異なるスペクトル帯域において蛍光し、つまり、マルチチャネル画像のチャネルの内1つを構成する。生体組織標本は、複数の染料によって、および/または1つの染料および1つの対比染料によって染色されてもよく、後者を「単一マーカ画像」とも呼ぶ。
[0013] 「分離画像」(unmixed image)とは、本明細書において解釈する場合、マルチ
チャネル画像の1つのチャネルについて得られる中間値またはスカラー画像を含む。マルチチャネル画像を分離することによって、チャネル毎に1つの分離画像が得られる。
[0014] 「カラー・チャネル」(color channel)とは、本明細書において解釈する場合
、画像センサのチャネルである。例えば、画像センサは、赤(R)、緑(G)、および青(B)のような、3つのカラー・チャネルを有することができる。
[0015] 「ヒート・マップ」(heat map)とは、本明細書において解釈する場合、マトリクス内に含まれる個々の値がカラーとして表されるデータのグラフィック表現である。
[0016] 「閾値設定」(thresholding)とは、本明細書において解釈する場合、既定の閾値の適用、または並び替えリストを提供するための極大値の並び替え、および並び替えリストの上位からの所定数の極大値の選択を包含する。
[0017] 「空間ロー・パス・フィルタリング」とは、本明細書において解釈する場合、画像画素の近隣においてロー・パス・フィルタリング処理を実行する空間フィルタを使用する空間フィルタリングを包含し、具体的には線形または非線形処理である。具体的には、空間ロー・パス・フィルタリングは、畳み込みフィルタを適用することによって実行されてもよい。空間フィルタリングは、先行技術(Digital Image Processing(ディジタル画像処理), Third Edition, Rafael C. Gonzalez, Richard E. Woods, page 145, chapter 3.4.1を参照のこと)から周知のようなものである。
[0018] 「極大値フィルタリング」(local maximum filtering)とは、本明細書におい
て解釈する場合、画素が部分画像エリア内における最大値に等しい場合、これを極大値と見なすフィルタリング処理を包含する。極大値フィルタリングは、いわゆるマックス・フィルタ(max filter)を適用することによって実現することができる(Digital Image Processing(ディジタル画像処理), Third Edition, Rafael C. Gonzalez, Richard E. Woods, page 326, chapter 5を参照のこと)。
[0019] 「視野(FOV)」(field of view)とは、本明細書において解釈する場合、
所定のサイズ、および矩形または円形のような形状を有する画像部分を包含する。
[0020] 本発明の実施形態によれば、癌生検組織標本の組織領域を近隣組織スライスにスライスする。これらの組織スライスは、それぞれの生物学的特徴の識別のために、1つまたは複数の染料によってマークすることができる。RGB画像センサのような、多数のカラー・チャネルを有する画像センサによって、マークした組織スライスの各々からディジタル画像を取得する(acquire)。
[0021] 取得した複数のディジタル画像に関して、画像レジストレーション・アルゴリズム(image registration algorithm)を実行する。先行技術から周知のものというような、種々の適した画像レジストレーション・アルゴリズムを、画像レジストレーションを実行するために使用することができる(https://en.wikipedia.org/wiki/lmage registrationおよびhttp://tango.andrew.cmu.edu/~gustavor/42431-intro-bioimaging/readings/ch8.pdfを参照のこと)。具体的に、画像レジストレーションを実行するためにアフィン変
換を利用することができる。
[0022] 画像レジストレーション・アルゴリズムは、画像の対応する点を位置合わせする幾何学的変換(geometrical transformation)を実行する(generate)。幾何学的変換は、マッピングの形態で提供することができ、各マッピングは、画像の1つの点を、画像の他の1つの対応する点にマッピングする。
[0023] 画像は、画像レジストレーションにしたがって位置合わせされる。言い換えると、画像を位置合わせしディスプレイ上の二次元平面に位置合わせ画像を表示するために、画像レジストレーション・アルゴリズムによって生成された幾何学的変換を画像に適用する。その結果、ディスプレイは、二次元平面で表示される画像の各1つが一致する組織領域(matching tissue region)を示すように、レジストレーションおよび位置合わせ後の複数の画像を示す。
[0024] 表示された画像の1つに関して、画像上でマウス・クリックを実行する、マウス・ホイールを回転させる、またはタッチ感応表示画面を介して入力されるジェスチャを実行することによってというようにして、画像変換コマンドをグラフィカル・ユーザ・インターフェースを介して入力することができる。例えば、画像変換コマンドは、視野を選択することによってというようにして、拡大ズームまたは縮小ズームを実行するため、あるいは回転または他の画像変換を実行するためのコマンドである。
[0025] 表示画像の1つを変換するための画像変換コマンドの入力に応答して、他の画像を同時に同様に変換する。これは、画像レジストレーション・アルゴリズムによって既に生成されている、マッピングのような、幾何学的変換を使用して行われる。その結果、画像変換コマンドに応答して画像の全てにおいて画像変換が調和して実行される。
[0026] 本発明の実施形態は、病理学者のようなユーザが、直観的な方法で組織領域の組織スライスから得られた画像を容易に視認し操作することができ、診断を実行するタスクを容易に行えるようにするので、特に有利である。
[0027] 本発明の実施形態によれば、組織スライスの少なくとも1つが、マルチチャネル画像の取得のために、複数の染料によってマークされる。マルチチャネル画像を分離して(unmixed)、1組の分離画像を供給する。分離画像は、互いに関しても、マルチチャネ
ル画像に関しても一致させる(register)必要はない。何故なら、これらは全て、組織スライスの1つから光センサによって取得された同一のデータ集合に基づくからである。マルチチャネル画像は、1組の分離画像を除いて、複数の画像に関して画像レジストレーション・アルゴリズムを実行するための基準画像として選択される。これによって、分離画像を除いて、複数の画像の各々の基準画像に対するマッピングが得られる。
[0028] 画像レジストレーションのための基準画像としてマルチチャネル画像を使用することが有利なのは、画像レジストレーションおよび画像の位置合わせを実行する計算コストが低減するからである。これは、分離画像には画像レジストレーションおよび位置合わせが不要であるからである。
[0029] 本発明の一実施形態によれば、画像変換コマンドは、拡大ズームまたは縮小ズーム・コマンドであり、ジェスチャ認識を使用して、グラフィカル・ユーザ・インターフェースを介して受け取られる。例えば、拡大ズームまたは縮小ズーム画像変換コマンドを入力するために行われるユーザのジェスチャは、2本の指を表示画像の1つに置くことによって実行されるピンチ・ジェスチャ(pinch gesture)である。つまり、画像変換コマンドは、表示画像の内ユーザが彼または彼女の指を置いた1つに関して受け取られ、この画像に関して、そして他の表示画像に関して同期して実行される。
[0030] 本発明の更に他の実施形態によれば、取得した複数の画像をサーバ・コンピュータ上に格納する。これらの画像は、サーバ・コンピュータから、スマートフォンまたは移動体コンピュータのような、移動体バッテリ給電型電気通信デバイスに、電気通信ネットワークを通じて、電気通信デバイスのディスプレイ上に画像を表示するために送信される。これによって、画像のアクセスおよび視認に関して、最大限度の柔軟性が得られる。
[0031] 本発明の一実施形態によれば、画像レジストレーション・アルゴリズムの少なくとも実行は、サーバ・コンピュータによって実行され、マッピングのような、結果的に行われる幾何学的変換は、画像と共に、サーバ・コンピュータから電気通信デバイスに送信される。これは、画像レジストレーション・アルゴリズムが相当な計算処理電力を必要とする場合もあるので、有利であると考えられる。移動体バッテリ給電型電気通信デバイス上ではなく、サーバ・コンピュータによって画像レジストレーション・アルゴリズムを前処理ステップとして実行することは、バッテリ電力を節約し、ユーザが感じる(experienced)レイテンシ時間を短縮する利点がある。
[0032] 本発明の実施形態によれば、画像の1つ以上において、1つ以上の視野が自動的に画定される。画像の1つにおける視野の位置を示すために、矩形ボックスのような図形シンボルを表示してもよい。ユーザは、タッチ感応ディスプレイ上でこの図形シンボルをタッチすることによってというようにして、それぞれの図形シンボルを選択することによって、視野に関して画像変換コマンドを入力することができる。図形シンボルの選択に応答して、拡大ズーム画像変換を、その視野に関して、そして他の画像において位置合わせされた画像部分に関して同期して実行することができる。
[0033] また、電気通信デバイスの計算負担を低減するために、視野の自動画定もサーバ・コンピュータによって実行し、バッテリ寿命を伸ばし、レイテンシ時間を短縮することができる。この場合、画定された視野を記述するメタデータをサーバ・コンピュータによって生成し、サーバ・コンピュータによって画定された視野の位置を示す図形シンボルを電気通信デバイスが表示することを可能にするために、画像と一緒にネットワークを通じてメタデータを送信する。
[0034] 本発明の更に他の態様によれば、本発明の方法を実行するように構成された画像処理システムを提供する。
[0035] 本発明は、1つの目視画面上に互いに隣接して示される同じ組織領域の複数の診断画像の一斉検討(coordinated review)を可能にするという驚異的な効果がある。全ての画像は、共通基準フレームに対して位置合わせおよび拡縮調整され(scale)、これらを
全て一緒に平行移動(translate)および拡縮ズーミング(zoom)することができ、各々が組
織学の重要な側面を示す。これによって、1つの画像はいずれも、専門家の読み手からの不確実性が高い(more tentative)結論を支持するだけかもしれないが、重要な条件の確定診断を目的を絞って行うことを可能にする。
[0036] 本発明は、少なくとも、以下の有利な特徴およびロバスト性を有する。
[0037] 1.画像ビジュアライゼーション(image visualization)のために、共通の表
示基準フレームを選択し使用する。
[0038] 2.表示可能な画像を生成するために前処理画像毎に目的ビューを構築することによって、生体組織標本の前処理画像を共通表示基準フレームに変換する。
[0039] 3.共通表示基準フレームを動的に変更するために、ユーザ・ジェスチャを受け入れる。例えば、画像を同時に平行移動させる、回転させる、倍率を高めることができる。
[0040] 4.各画像が生体試料標本の重要な面(aspect)を強調するために異なる染色を示すとき、同時ビューは、これらの同じ画像の順次検査を行う専門家の読み手の記憶に頼ることによって行うことができる診断よりも、一層確実な組織条件の診断を提供する。
[0041] 更に、本発明は、連続ミクロトム・スライスから導き出される画像も受け入れることができる。これらのスライスは、対象の共通する特徴を位置合わせするために、平行移動に加えて回転も必要となる場合がある。また、本発明は、組織切片における画像の位置を記述するために、画像にメタデータをタグ付けすることができ、この情報は、表示のために画像を共通基準フレームに対して調節するアフィン変換の構築(construction)に使用される。加えて、本発明は、全ての画像を同じ倍率で同時に拡大することも可能にする。
[0042]
[0043] 一実施形態では、本開示は、生体組織標本の同じ領域の複数のビューを同時に表示するシステムを特徴とする。このシステムは、プロセッサと、このプロセッサに結合されたメモリとを含むのでもよい。メモリは、コンピュータ読み取り可能命令を格納することができ、このコンピュータ読み取り可能命令がプロセッサによって実行されると、このプロセッサに動作を実行させる。
[0044] 他の実施形態では、本開示は、生体組織標本の同じ領域の複数のビューを同時に表示する方法を特徴とする。この方法は、撮像分析システムによって実現されてもよく、コンピュータ読み取り可能媒体上に格納されてもよい。この方法は、動作を実行するためにプロセッサによって実行される論理命令を含んでもよい。
[0045] ある実施形態では、前述の動作は、生体組織標本の複数の前処理画像を受け取る動作、画像ビジュアライゼーションに使用される共通表示基準フレームを選択する(choose)動作、複数の表示可能な画像を生成するために複数の前処理画像の各前処理画像に目的ビューを構築することによって、複数の前処理画像を共通表示基準フレームに変換する動作、表示画面上における目視のために、複数の表示可能画像を表示パターンに配列する動作、複数の表示可能な画像を表示画面上に表示する動作、および共通表示基準フレームを動的に変更するためにユーザ・ジェスチャを受け入れる動作を含んでもよい。
[0046] 更に他の実施形態では、前述の動作は、更に、インターフェース・デバイスからの入力ジェスチャに応答して表示画面上で調和して複数の画像を平行移動、回転、ならびに拡大ズーミングおよび縮小ズーミングし、撮像した生体組織標本の所望の視点(perspective)を提供する動作、表示画面上で複数の画像から1つ以上の画像を除去して表示画
面を片付ける動作、新たなモード画像を表示画面上に追加する動作、表示パターンを再構成して代替表示パターンを形成する動作、2つ以上の画像モードを積み重ねて画像の特徴を補強する(reinforce)する動作、および現在の試験の表示パターンを、今後の試験のた
めの保存テンプレートとして保存する動作も含んでもよい。
[0047] 本特許の一実施形態では、予備レジストレーション画像の集合体をFOV分析によって供給してもよい。FOV分析の例については、本明細書において説明する。画像には、共通基準フレームに関してこれらの個々の配置、回転、倍率を記述するメタデータを、タグ付けする。いずれの新たな基準フレームとでも、メタデータは、画像の本来の基準フレームと、新たなフレームとの間におけるアフィン・マッピングを定めることができる。
[0048] 新たなフレームへの再撮像は、新たなフレームにおけるディスティネーション画素(destination pixel)を、画像のソース・フレームにおけるその対応する位置に逆に
マッピングし、その画素値あるいは周囲のソース画素値の内挿補間をディスティネーション画素値として選択することによって、行われてもよい。このように、同時表示のための準備において、任意の画像を、全ての他の画像によって共有される新たな基準フレームに平行移動、回転、伸長、または短縮することができる。
[0049] 診断にとってどの配列(arrangement)が重要であるかの決断は、完全に専門家
の読み手の最良の判断に基づけばよい。あるビューは差し当たっては(for the case at hand)重要でないと見なされるかもしれないが、他のビューは診断にとって一層重要であるとして集合体に追加される場合もある。
[0050] 本発明の実施形態が特に有利なのは、マルチチャネル画像において複数の視野を識別するために自動で信頼性のある技法を提供しつつも、病理学者または生物学者によってマルチチャネル画像における視野に手作業でマークする厄介な手間を回避し、これによって主観的判断や人間の誤りも廃絶するからである。特殊なロー・パス・フィルタリングとして、極大値フィルタリングおよび閾値設定動作を、高い処理速度で実行することができ、ユーザが受ける計算費用およびレイテンシ時間を最小限に抑えることができる。これは、視野の画定がマルチチャネル画像に対して直接行われるのではなく、フィルタリングされ閾値が設定された画像に基づいて行われるので、高い処理速度を可能にするという事実によるものである。
[0051] 尚、ステップfにおける分析は、最大解像度のマルチチャネル画像に対して実行されるのであって、空間ロー・パス・フィルタリングした分離画像に対してではないことは、注記してしかるべきである。これによって、最大量の利用可能な図式情報を、同様
の分析を実行するために使用することができることが確保され、一方フィルタリング処理、即ち、ステップb、c、およびdは、単に、完全な分析が実行されるべき関連視野の識別に役立つに過ぎない。
[0052] 本発明の更に他の実施形態によれば、前述のように視野を画定するために分離画像の1つを処理し、一方組織領域の識別のために、分離画像の他の1つをセグメント化する。分離画像は、1つの染色画像(染色および対比染色による2-チャネル、例えば、図2の実施形態)から、または多重画像(multiplex image)(2つよりも多いチャネル)
から生成することができる。
[0053] 適したセグメント化技法は、先行技術から公知であるようなものである(Digital Image Processing(ディジタル画像処理), Third Edition, Rafael C. Gonzalez, Richard E, Woods, chapter 10, page 689、および Handbook of Medical Imaging(医療用撮像便覧), Processing and Analysis, Isaac N. Bankman, Academic Press, 2000, chapter 2を参照のこと)。セグメント化によって非組織領域は除去される。何故なら、非組織領域は分析の対象にならないからであり
[0054] セグメント化によって、非組織領域を除去するマスクが得られる。結果的に得られた組織マスクは、空間ロー・パス・フィルタリングまたは極大値フィルタリングあるいは閾値設定処理の前または後、および視野が画定される前または後に、分離画像に適用することができる。空間ロー・パス・フィルタリングの実行の前というように、組織マスクを早い段階で適用することは、処理負荷を更に低減するために有利な場合がある。
[0055] 本発明の実施形態によれば、分離画像の内、組織マスクを供給するためにセグメント化された他の1つは、請求項1のステップb~eにしたがって処理された分離画像によって表される染色に対して対比染色である1つの染色を表すチャネルから得られる。
[0056] 本発明の実施形態によれば、視野は、分離画像の内少なくとも2つについて画定される。2つの異なる分離画像において画定された視野は、これらが同じまたはほぼ同じ画像位置に位置する場合には、併合する(merge)ことができる。これは、共通する生物
学的構造を識別する共配染色(co-located stains)に対して1つの視野が得られるように
、共配する(co-located)ことができる染色には特に有利である。このような視野を併合することにより、処理負荷は更に低減され、ステップfにおける分析は、併合された視野に対して1回だけ実行すれば済む。更に、2つの関係する結果ではなく、1つの分析結果だけが提示されるので、病理学者または生物学者にとって認知の負担も軽減される。実施態様によっては、2つの視野の空間重複度が重複閾値よりも高い場合に併合するのでもよい。
[0057] 本発明の実施形態によれば、視野の分析は、対象(considered)視野内のマル
チチャネル画像に示される生体細胞の細胞計数(cell counting)によって実行される。細
胞計数は、適した画像分析技法を使用し、これを視野に適用することによって実行することができ、具体的には、画像分類技法によって細胞計数を実行することができる。
[0058] 本発明の更に他の実施形態によれば、視野の分析は、視野またはこの視野から取り込んだ画像パッチ(image patch)を畳み込みニューラル・ネットワークに入力するこ
とによってというように、訓練済み畳み込みニューラル・ネットワークによって、視野または画像パッチ内における生体特徴の存在確率をそれぞれ判定するために実行される。画像パッチは、畳み込みニューラル・ネットワークへの入力のために、視野から抽出されてもよく、最初に視野内において対象物体(object of interest)を特定し、次いでこの対象物体を含む画像パッチを抽出する。
[0059] 本発明の更に他の実施形態によれば、分析は、ステップfにおいて、クラスタ分析または統計的分析のようなデータ分析として実行される。
本発明の他の態様によれば、複数の染料によって染色された生体組織標本から得られたマルチチャネル画像を分析するための画像処理システムを提供する。このシステムは本発明の方法を実行するように構成される。
[0060] 本開示は、ホール・スライド画像における各細胞マーカの密度に基づく自動視野(FOV)選択のための前処理システムおよび方法を特徴とする。本明細書において説明する動作は、分離した多重スライドまたは単一染色スライドから個々のマーカの画像を読み取る動作と、個々のマーカ画像から組織領域マスクを計算する動作とを含む。
[0061] 個々のマーカ画像チャネルにロー・パス・フィルタを適用し、マーカ毎に候補FOVとして最も密度が高い上位K箇所の領域をヒート・マップから選択することによって、各マーカのヒート・マップを判定してもよい。個々のマーカ画像からの候補FOVは、一緒に併合される。併合は、同じ座標系におけるFOVの全てを一緒に追加すること、または入力優先度または選択(choice)に基づいて、選択されたマーカ画像からのFOVだけを追加することの一方または双方を含んでもよく、最初に全ての個々のマーカ画像を共通座標系に一致させ、形態学的処理(morphologic operation)によって併合する。その後、逆レジストレーションを使用して、識別されたFOVの全てを元の画像に転移させて、高解像度の対応FOV画像を得る。
[0062] ある実施形態では、FOVの計算を高速化するために、解像度が低い画像を使用する。これらの画像は解像度が低いので、ヒート・マップおよび組織領域マスクを計算するのは、計算的に遙かに速くなる。これによって、FOVの選択を自動化および高速化することが可能となり、組織標本の分析を高速化することが可能になる。
[0063] 組織スライド画像は多くの特徴を含むが、いずれの特定の研究についても関心があるのはその一部だけである。これら関心領域は、選択的染色取り込みによって引き起こされた特異のカラーを有することができる。また、これらは広い空間範囲を有する場合もある。重要なのは、非関心領域は何らかの特定空間周波数を有する場合があり、空間周波数フィルタリングによって、画像からのこれらの除去が可能であるということである。このようなフィルタは、ロー・パス・フィルタ、ハイ・パス・フィルタ、およびバンド・パス・フィルタを含むが、これらに限定されるのではない。更に注意深くチューニングされた空間周波数フィルタは、マッチド・フィルタとして知られているものであってもよい。空間周波数フィルタの非限定的な例には、ロー・パス・フィルタ、ハイ・パス・フィルタ、バンド・パス・フィルタ、多重バンド・パス・フィルタ、およびマッチド・フィルタが含まれるが、これらに限定されるではない。このようなフィルタは、統計的に定められてもよく、または適応的に生成されてもよい。
[0064] したがって、対象領域を突き止めるプロセスにおいて、分離プロセスによって適当なカラーを最初に選択することは有用である。これは、画像の原色チャネルR、G、およびBに適用される線形演算子と見なすことができる。また、空間周波数フィルタリングは、画像における対象構造(feature of interest)に対する優先度(preference)を与え
るためにも適用される。これらの動作は、双方とも線形演算子であるので、いずれの順序で適用されてもよい。
[0065] この領域選択と並行して、完全に異なるチューニングがなされた空間周波数フィルタを使用して、例えば、スライド画像の内組織が位置する全領域(gross region)のみを選択し、空領域を拒否することによって、セグメント化を広くしたマスク(broader segmentation mask)を形成することもできる。したがって、同じ組織スライド画像に複数の異なる空間周波数フィルタを適用することができる。
[0066] 一旦フィルタリングされると、極大値フィルタ(local max filter)を適用することによって、対象領域を突き止めることができる。極大値フィルタは、形態学的非線形フィルタの一種であり、結果の各画素に、極大値フィルタのカーネル直下に位置するソース画像からの最大画素値の値(value of the maximum pixel value)を保持させることによって、画像を生成する。カーネルとは、任意の形状およびサイズの幾何学的マスクであるが、この目的のために、関心構造程度の寸法を有するように構築される。極大値フィルタからの出力画像は、カーネルと同様の形状をなし、その領域における最大画素値に等しい一定値を有する島を有する傾向がある。
[0067] ある実施形態では、極大値フィルタ画像のこの構造によって、閾値よりも高い対応フィルタ画像画素に1の二進マスク値を割り当て、閾値よりも低い対応フィルタ画像画素に0の値を割り当てることによって、フィルタ画像を二進マスクに変換するために閾値を適用することもできる。その結果、領域として標識付けることができ、測定可能な空間の広がりを有する1のブロブ(blob)となる。これらの領域標識、位置、および空間的な広がりが一緒になって、対象領域(ROI)または視野(FOV)の記録が得られる。
図1Aは、それぞれ、本開示の例示的な実施形態による自動FOV選択のためのシステムおよびワークフローを示す。 図1Bは、それぞれ、本開示の例示的な実施形態による自動FOV選択のためのシステムおよびワークフローを示す。 図2は、本開示の例示的な実施形態によるヒート・マップ計算を示す。 図3は、本開示の例示的な実施形態による組織マスク計算を示す。 図4は、本開示の例示的な実施形態による候補FOVを示す。 図5Aおよび図5Bは、それぞれ、本開示の例示的な実施形態による、全てのマーカからのFOVの併合および選択したマーカからのFOVの併合を示す。 図6Aおよび図6Bは、本開示の例示的な実施形態によるFOVの統合を示す。 図7は、本開示の例示的な実施形態による、全てのマーカ・ビューを使用する画像分析用のユーザ・インターフェースを示す。 図8は、本開示の例示的な実施形態による、個々のマーカ・ビューを使用する画像分析用のユーザ・インターフェースを示す。 図9は、本開示の例示的な実施形態による、湿潤度計算のためのディジタル病理学ワークフローを示す。 図10は、本発明の例示的な実施形態のプロセス・フロー・チャートを示す。 図11aは、単一染色マーカ画像から開始する、本発明の例示的な実施形態のプロセス・フロー・チャートを示す。 図11bは、単一染色マーカ画像から開始する、本発明の例示的な実施形態のプロセス・フロー・チャートを示す。 図12は、多重スライドから開始する、本発明の例示的な実施形態のプロセス・フロー・チャートを示す。 図13は、単一染色画像から開始する、本発明の例示的な実施形態のプロセス・フロー・チャートを示す。 図14は、本発明の実施形態にしたがって、同時に複数のビューを表示するための例示的なプロセス・フロー・チャートを示す。 図15は、本発明の実施形態にしたがって、共通表示基準フレームを選択する(choose)ための例示的なプロセス・フロー・チャートを示す。 図16は、本発明の実施形態にしたがって、前処理画像を変換して表示可能な画像を生成するための例示的なプロセス・フロー・チャートを示す。 図17は、本開示の例示的な実施形態によるユーザ・インターフェース上における画像の平行移動ビューを示す。 図18は、本開示の例示的な実施形態によるユーザ・インターフェース上における画像の回転ビューを示す。 図19は、本開示の例示的な実施形態によるユーザ・インターフェースから削除された2つの画像を示す。 図20は、本開示の例示的な実施形態によるユーザ・インターフェース上における画像の再配置表示パターンを示す。 図21は、本開示の例示的な実施形態によるユーザ・インターフェース上における画像の拡大ズーム・ビューを示す。 図22は、本開示の例示的な実施形態によるユーザ・インターフェース上における2つの画像の積み重ねビューを示す。 図23は、本発明の実施形態を表す模式図を示す。 図24は、拡大ズーミングまたは縮小ズーミングするためにピンチ・ジェスチャが使用される、本発明の実施形態を示す。
[0092] 本開示の詳細な説明
[0093] 本発明は、生体試料、例えば、組織標本の同じ領域の複数のビューを同時に表示するシステムおよび方法を特徴とする。ある実施形態では、このシステムは、プロセッサと、このプロセッサに結合されたメモリとを含むのでもよい。メモリは、コンピュータ読み取り可能命令を格納することができ、このコンピュータ読み取り可能命令がプロセッサによって実行されると、プロセッサに動作を実行させる。
[0094] 他の実施形態では、この方法は、撮像分析システムによって実現されてもよく、コンピュータ読み取り可能媒体上に格納されてもよい。この方法は、動作を実行するためにプロセッサによって実行される論理命令を含んでもよい。
[0095] 図14に示すように、本明細書において説明するシステムおよび方法の動作は、生体組織標本の複数の前処理画像を受け取る動作(2100)、画像ビジュアライゼーションに使用される共通表示基準フレームを選択する動作(2110)、複数の前処理画像の各前処理画像に対して目的ビューを構築して複数の表示可能画像を生成することによって、複数の前処理画像を共通表示基準フレームに変換する動作(2120)、表示画面上における目視のために、複数の表示可能画像を表示パターンに配列する動作(2130)、表示画面上に複数の表示可能画像を表示する動作(2140)、および共通表示基準フレームを動的に変更するためにユーザ・ジェスチャを受け入れる動作(2150)を含むことができるが、これらに限定されるのではない。本発明を特定の理論やメカニズムに限定することを望むのではなく、本発明は、1つの目視画面上に互いに隣接して示される複数の画像の一斉検討を可能にする。
[0096] ある実施形態では、複数の表示可能画像を表示する動作(2140)は、撮像された生体組織標本の異なる側面の同時動的目視に対処することもできる。変換プロセス(2120)を繰り返すことによって、全ての表示可能な画像に、見かけ上一斉の(coordinated)平行移動、回転、または倍率変化を同時に実行させることができる。
[0097] ある実施形態では、各前処理画像は、生体組織標本の同じ領域のビュー・モードを示してもよく、各前処理画像は、グローバル標準基準フレーム(global standard reference frame)に関する画像基準フレームを記述するメタデータを有してもよい。各前処理画像のメタデータは、グローバル標準基準フレーム(GSRF:global standard reference frame)に関する前処理画像のローカル基準フレーム(PI-LRF:preprocessed image local reference frame)を記述することもできる。例えば、メタデータは、グローバル標準基準フレームに関する前処理画像の空間位置、方位、および倍率を記述することができる。他の例として、メタデータは、標準基準フレームに関する各画像の平行移動、回転、および倍率を記述する。共通表示基準フレームを知ることによって、ソース画像画素を、画像モード・ビューに対して表示された画素に関連付けるためにアフィン変換を実行する(create)。本明細書において使用する場合、アフィン変換、または代わりにアフィン・マッピングとは、拡張位置ベクトル(augmented position vector)と対比して行列演算子として表現可能な、線形変換と定義することができる。拡張位置ベクトルは、これらのベクトルの任意の平行移動、回転、および倍率を表すことができる。アフィン変換は、当業者には周知である。
[0098] ある実施形態では、前処理画像のローカル基準フレーム(PI-LRF)は、前処理画像における画素の位置を記述するために使用される二次元基準フレームである。
[0099] 他の実施形態では、グローバル標準基準フレームは、画素位置の空間を記述するために使用される、承認済みの(agreed-upon)固定二次元基準フレームであり、各画像
のローカル基準フレーム(PI-LRF)とグローバル標準基準フレームとの間におけるアフィン・マッピングを定めることによって、異なる画像間における空間関係の理解を可能にする。ある実施形態では、各前処理画像のメタデータは、GSRFに関する前処理画像の空間位置、方位、および倍率を記述する。例えば、メタデータは、画像基準フレームとグローバル標準基準フレームとの間における第1アフィン・マッピングを定めることができる。
[00100] ある実施形態では、図15に示すように、共通表示基準フレームを選択する
動作(2110)は、更に、二次元表示画像画素格子を作成する動作(2111)、表示画像画素格子における画素位置を記述するために使用される二次元表示画像ローカル基準フレーム(DI-LRF:two-dimensional display image local reference frame)を
構築する動作(2112)、GSRFに関するDI-LRFの位置、方位、および倍率を選択する動作(2113)、およびDI-LRFにおける画素位置をGSRFにおける位置にマッピングするアフィン変換を計算する動作(2114)を含んでもよい。格子の交差点は画素位置を示すことができる。この構造は、表示画像テンプレートとして役割を果たすことができ、表示画像の生成のためにアフィン部分マッピング(affine partial mapping)に供することもできる。
[00101] ある実施形態では、図16に示すように、複数の前処理画像を共通表示基準
フレームに変換する動作(2120)は、更に、CDRF表示画像テンプレートおよびアフィン部分マッピングの作業用コピーを構築する動作(2121)、表示画像のDI-LRFにおける画素位置を、前処理画像のPI-LRFにおける位置に変換する複合マッピングを生成するために、アフィン部分マッピングを、前処理画像のための第1アフィン・マッピングと複合する(compose)動作(2122)、および表示画像画素毎に動作を実行
することによって表示画像をペイントする動作(2123)を含んでもよい。ある実施形態では、表示画像テンプレートの作業コピーは、表示画像に対する画素値を保持するメモリ・セルを含む。
[00102] 表示画像をペイントする動作は、表示画像画素のDI-LRF位置から前処
理画像のPI-LRFにおける位置への複合アフィン変換によって、マッピングする動作(2124)、前処理画像において、そのマッピングされた位置周囲の近隣画素間で画素値を内挿補間する動作(2125)、および表示画像画素において表示画像に使用される画素値として、内挿補間した画素値を伝達する動作(2126)を含んでもよいが、これ
らに限定されるのではない。表示画像画素毎にこれらの動作を実行することによって、各前処理画像を、表示画面上における表現のために表示画像に変換することができる。
[00103] ある実施形態では、近隣画素間における内挿補間(2125)は、単に最も
近い画素をその値に選択することによって、または4つの最も近い近隣画素間においてバイリニア内挿補間を使用することによって実行されてもよい。他の実施形態では、ソースおよびターゲット画像間で倍率を変更するとき、空間ロー・パス・フィルタリングのような、更に精巧な方法が、サンプル・エリアシングまたは撮像アーチファクトを回避するために必要となる場合もある。何故なら、これはサンプル率変換と同等であるからである。
[00104] 他の実施形態では、複数の前処理画像を変換する動作(2120)は、光学
的歪みを除去するために、複数の前処理画像に対して非線形補正を実行してもよい。例示的な非線形補正には、ピンクッション(pincushion)またはバレル歪み、焦点ぼけ、コマ、または非点収差の除去を含むことができる。
[00105] ある実施形態では、二次元ローカル基準フレーム(PI-LRFおよびDI
-LRF)および承認済み固定二次元基準フレーム(GSRF)のような、以上で述べたような二次元基準フレームの内任意のものは、直交デカルト基準フレームであることができる。他の実施形態では、ここで述べたような二次元基準フレームの内任意のものが、非直交および/または非デカルト基準フレームであることができる。
[00106] ある実施形態では、複数の画像は、生体組織標本の画像を前処理することに
よって生成される。画像の前処理は、本明細書において説明するFOV方法のような方法を利用すればよい。しかしながら、画像を前処理するために他の適した方法を使用してもよいことは言うまでもない。
[00107] ある実施形態では、表示パターンは行および列の形態でもよい。この表示パ
ターンは、「m」本の行および「n」本の列を特徴としてもよく、ここで「m」および「n」は任意の自然数とすることができる。例えば、表示パターンは2行および3列を有してもよい。他の実施形態では、表示パターンは環状または正方形であってもよい。更に他の実施形態では、表示パターンは角錐形でもよい。
[00108] 他の実施形態では、前述の動作は、更に、インターフェース・デバイスから
の入力ジェスチャに応答して、表示画面上で複数の画像を調和して平行移動させる動作、インターフェース・デバイスからの入力ジェスチャに応答して表示画面上で複数の画像を調和して回転させる動作、およびインターフェース・デバイスからの入力ジェスチャに応答して表示画面上で複数の画像を調和して拡大ズーミングおよび縮小ズーミングする動作を含んでもよい。図17~図19に示すように、複数の画像を平行移動、回転、およびズーミングする動作は、撮像された生体組織標本の所望の視点を与えることができる。例えば、複数の画像の平行移動は、画像を線形方向に滑らせる(slide)ことを伴ってもよい。複数の画像の回転は、時計回り方向または反時計回り方向に行われてもよい。複数の画像の拡大ズームは、生体組織標本のある領域に接近したビューを提供することができる。複数の画像の縮小ズームは、生体組織標本の離れたビューを提供することができる。
[00109] ある実施形態では、図20に示すように、前述の動作は、更に、表示画面上
において複数の画像から1つ以上の画像を除去して、表示画面を片付ける動作を含んでもよい。例えば、ある画像が生体組織標本の望ましくないビューまたは関係ないビューを示す場合、その画像を除去することもできる。他の実施形態では、前述の動作は、更に、新たなモード画像を表示画面上に追加する動作を含んでもよい。新たなモード画像は、他の画像モードと連携して目視されてもよい。
[00110] 画像を目視することができるモードの非限定的な例には、種々のカラー・チ
ャネル、画像フィルタ状態、またはエッジ検出状態を含むことができる。一般に、本来の画像には一定の特性を強調する有用な変更(alteration)があることもあり、専門家の読み手に関心を起こさせる重要な診断の特徴を含む同時ビューを提供することができる。
[00111] ある実施形態では、図21に示すように、前述の動作は、更に、代替表示パ
ターンを形成するために、表示パターンを再配列する動作を含んでもよい。代替表示パターンは、一層緊密な調査を行うために、複数の画像モードを結集することができる。他の実施形態では、図22に示すように、前述の動作は、更に、画像の特徴を補強するために2つ以上の画像モードを積み重ねる(stack)動作を含んでもよい。2つ以上の画像モードの積み重ねは、インターフェース・デバイスからの入力ジェスチャに応答して行うことができる。ある実施形態では、2つ以上の画像モードが半透明(translucent)であってもよい。
[00112] 他の実施形態では、前述の動作は、更に、今後の試験において他の複数の画
像の表示を容易にするために、現行の試験の表示パターンを保存テンプレートとして保存する動作を含んでもよい。
[00113] 本発明の一実施形態では、専門家の読み手は、全ての画像が連携して応答す
るように、画像の内1つだけにおいてアクションを呼び出すことによって、全ての画像に同時に作用させる(affect)ことができる。非限定的な例示的入力ジェスチャおよびインターフェース・デバイスには、マウス、触覚センサ、眼球センサ、および電子カメラを含むことができるが、これらに限定されるのではない。例えば、専門家の読み手がマウス・クリックを使用して画像の1つを有効化し、次いでマウス・ホイールを回転させて画像のズーム倍率に作用させるのでもよい。有効化された画像内におけるマウス・クリックおよびドラッグが、全ての画像を同じ方向にドラッグさせることができる。他の例として、選択した画像変更を実行するために、触覚センサが使用されてもよい。触覚センサは、回転、平行移動、ズーミング、積み重ね等を提供する(offer)ことができ、単純なコンピュータ・マウスよりも精巧であると言って差し支えない。
[00114] 眼球センサは、注視(sight attention)の中心の変化、瞬き等のような、専門家の読み手の眼球ジェスチャ(eye gesture)を検出することができる。電子カメラは、手
の動きのような、操作員の特殊なジェスチャを目撃することができる。特殊ジェスチャは、画像の平行移動、回転、倍率、表示再配列、画像の積み重ね、および積み重ねにおける透け(translucence)の制御等を示す。他の実施形態では、コンピュータのようなデバイスと対話処理する方法(manner)は、十分で有効であるのであればいずれでも、専門家の読み手の目標を達成するための最も簡単で最も直接的な対話処理に対する好みと併せて使用することができる。
[00115] 代替実施形態では、同じ領域の複数のビューを同時に表示する方法は、遠隔
検知用途または戦場管理のためのマルチスペクトル地表作像(imagery)の試験において使
用することもできる。
[00116] 表示画面上で生体組織標本の同じ領域の複数のビューを同時に表示する方法
を実現する非限定的な例は、以下を特徴とすることができる。
[00117] 1.生体組織標本についてのデータをロードする。
[00118] 2.ファイル・リストからファイルを選択する。
[00119] 3.選択したファイルからの6枚の画像を、3列×2行の表示パターンで表
示する。
[00120] 4.重要なマーカを選択する。
[00121] 5.画像サンプルのマーカに対してヒート・マップを表示する。
[00122] 6.本来のビュー、ヒート・マップ・ビュー、または個々のマーカ・ビュー
間における切り替え。
[00123] 7.画像サンプルのホット・スポットを表示する。
[00124] 8.同じ座標系に位置合わせさせる。
[00125] 9.画像の回転、平行移動、または拡大および縮小ズーム。
[00126] 10.FOVの併合。
[00127] 11.撮像されたサンプルの領域に標識を割り当てる。
[00128] 12.画像の名称を変更する。
[00129] 13.画像を追加または削除する。
[00130] 14.ファイルを保存する。
[00131] 画像の前処理
[00132] ある実施形態では、本発明は、生体スライド画像の前処理システムおよび方
法を利用してもよい。尚、画像を前処理するためには、任意の適したシステムまたは方法を使用してもよいことは言うまでもない。一実施形態では、前処理システムまたは方法の非限定的な例は、ホール・スライド画像における各細胞マーカの密度に基づく自動視野(FOV)選択を特徴としてもよい。本明細書において説明する動作には、分離多重スライドからまたは単一染色スライドからの個々のマーカに対する画像を読み取り、個々のマーカ画像から組織領域マスクを計算する動作が含まれるが、これらに限定されるのではない。各マーカのヒート・マップは、個々のマーカ画像チャネル上でロー・パス・フィルタを適用することによって決定することができ、ヒート・マップから最も明暗度(intensity)が高い上位K箇所の領域をマーカ毎の候補FOVとして選択する。次いで、個々のマーカ画像からの候補FOVを一緒に併合することができる。この併合は、入力の優先順位または選択(choice)に基づいて、同じ座標系におけるFOVの全てを一緒に追加すること、または選択されたマーカ画像からのFOVのみを追加することの内一方または双方を含んでもよく、最初に個々のマーカ画像の全てを共通座標系に一致させ、形態学的処理によって併合する。続いて、高解像度の対応するFOV画像を得るために、逆レジストレーション(inverse registration)を使用して、識別されたFOVの全てを逆に本来の画像に移転させる。本発明をいずれの理論やメカニズムにも限定することを望むのではないが、本発明のシステムおよび方法は、再現可能である、人間の読み手に偏らない、そして効率が向上するというような利点を提供することができる。
[00133] ある実施形態では、自動化ホール・スライド分析の品質制御システムは、画
像取得システム(102)と、プロセッサ(105)と、プロセッサに結合されたメモリ(110)とを含む。このメモリは、コンピュータ読み取り可能命令を格納するように構成され、このコンピュータ読み取り可能命令がプロセッサによって実行されると、以下の動作の内1つ以上の動作をプロセッサに実行させる(しかし、以下の動作に限定されるのではない)。これらの動作は、画像取得システム(102)から高解像度入力画像(231)を読み取る動作、高解像度入力画像の低解像度バージョンを計算する動作、画像取得システム(102)から複数の低解像度画像マーカ画像を読み取る動作であって、各画像マーカ画像が、低解像度入力画像の1つのカラー・チャネル(232)のものである、動作、低解像度入力画像に対応する組織領域マスク(233)を計算する動作、各画像マーカ画像(114)をロー・パス・フィルタリングした画像(234)を計算する動作、画像マーカ画像(113)毎にマスク・フィルタ画像(masked filtered image)を生成する動作であって、マスク・フィルタ画像が、低パス・フィルタリングした画像を乗算した組織領域マスクである、動作、各マスク・フィルタ画像(116)内において複数の候補視野(FOV)を識別する動作、画像マーカ画像(117)毎の複数の候補FOVの内部分集合を、複数の併合FOVに併合する動作、入力画像上で複数の候補視野の併合部分を描写する(depict)動作を含む。
[00134] ある実施形態では、マスク・フィルタ画像に対してヒート・マップを計算す
ることができる。ある実施形態では、ヒート・マップは、マスク・フィルタ画像の着色を含み、低明暗度領域には青色が割り当てられ、明暗度が高くなるに連れて、黄色、橙色、および赤色が領域に割り当てられる。低および高明暗度領域に割り当てるには、任意の他のしかるべきカラーまたはカラーの組み合わせが使用されてもよい。
[00135] ある実施形態では、組織領域マスクの生成は、以下の動作の内1つ以上を含
む(しかし、以下の動作に限定されるのではない)。低解像度入力画像(336)の輝度(337)を計算する動作、輝度画像(338)を生成する動作、標準偏差フィルタを輝度画像(339)に適用する動作、フィルタリングした輝度画像(340)を生成する動作、および所与の閾値よりも高い輝度を有する画素が1に設定され、この閾値よりも低い画素が0に設定されるように、フィルタリングした輝度画像(341)に閾値を適用する動作、組織領域マスク(342)を生成する動作。
[00136] ある実施形態では、組織領域マスクは、高解像度入力画像から直接計算され
る。この場合、組織領域マスクが、フィルタリングした画像マーカ画像への適用前に、解像度がもっと低い画像に変換されてもよい。
[00137] ある実施形態では、画像マーカ画像は、多重スライドを分離する(111)
ことによって得られ、分離モジュールは、基準カラー・マトリクス(112)を使用して、どのカラーが個々のカラー・チャネルに対応するか判定する。他の実施形態では、画像マーカ画像は単一染色スライド(single stain slide)から得られる。
[00138] ある実施形態では、画像レジストレーション・プロセスは、基準画像として
役割を果たすために1つの画像マーカ画像を選択する動作と、各画像マーカの基準画像の座標フレームへの変換を計算する動作とを含む。各画像の基準画像への変換を計算する方法は、当業者には周知である。他の実施形態では、多重基準スライドを分離することによって画像が得られる場合、分離画像の全ては既に同じ座標系にあるので、レジストレーションは不要となる。
[00139] 本開示は、自動視野(FOV)選択システムおよび方法を提供する。ある実
施形態では、FOV選択は、ホール・スライド画像における各細胞マーカの密度に基づく。ここで説明する動作は、分離多重スライドからまたは単一染色スライドからの個々のマーカに対して画像を読み取る動作と、個々のマーカ画像から組織領域マスクを計算する動作とを含む。各マーカのマスク・フィルタ画像(masked filtered image)は、個々のマーカ画像チャネルにロー・パス・フィルタを適用し、組織領域マスクを適用することによって決定されてもよい。マスク・フィルタ画像から明暗度が最も高い上位K箇所の領域を、マーカ毎の候補FOVとして選択する。個々のマーカ画像からの候補FOVを一緒に併合する。この併合は、入力の優先順位または選択に基づいて、同じ座標系におけるFOVの全てを一緒に追加すること、または選択されたマーカ画像からのFOVのみを追加することの内一方または双方を含んでもよく、最初に個々のマーカ画像の全てを共通座標系に一致させ、形態学的処理によって併合する。その後、高解像度の対応するFOV画像を得るために、逆レジストレーション(inverse registration)を使用して、識別されたFOVの全てを逆に本来の画像に移転させる。本発明をいずれの理論やメカニズムにも限定することを望むのではないが、本発明のシステムおよび方法は、再現可能である、人間の読み手に偏らない、そして効率が向上するというような利点を提供することができる。その結果、本開示による自動FOV選択のためのディジタル病理学ワークフローは、候補FOVを自動的に供給する、コンピュータ・ベースのFOV選択アルゴリズムを含む。これらの候補FOVは、病理学者またはその他の評価者によって更に分析することができる。
[00140] ここで説明した動作は、例示の目的に限って、免疫細胞の識別と関連付けて
、そして浸潤度の計算における使用に合わせて説明した。しかしながら、本システムおよび方法は、細胞または生体試料のいずれの種類の画像にも適用可能であると言って差し支えなく、任意の種類の細胞または細胞のグループに対する種類、密度、および位置の判定に適用することができる。本明細書において使用する場合、「生体試料」(biological specimen)および「生体組織標本」(biological tissue sample)という用語は、相互交換可能に使用されてもよい。更に、癌組織および免疫マーカ以外でも、本開示は任意の疾病または非疾病状態の任意の生体試料または腫瘍にも適用可能であり、更に、蛍光および非蛍光染料によって染色された生体試料の画像というような、任意の種類の染色を受けた生体試料の画像にも適用可能である。また、ステップの順序は、本明細書において説明するものとは異なってもよいことは、当業者には認められよう。
[00141] 図1A~図1Bは、それぞれ、本開示の例示的な実施形態による自動FOV
選択のためのシステム100およびワークフローを示す。図1Aを参照すると、システム100は、メモリ110を含む。メモリ110は、コンピュータ101に結合されたプロセッサ105によって実行される複数の処理モジュールまたは論理命令を格納する。画像取得システム102からの入力が、複数の処理モジュールの内1つ以上の実行をトリガすることができる。プロセッサ105およびメモリ110の他に、コンピュータ101は、キーボード、マウス、スタイラス、およびディスプレイ/タッチスクリーンのような、ユーザ入力および出力デバイスも含む。以下の論述において説明するように、プロセッサ105は、メモリ110上に格納されている論理命令を実行し、1つ以上の染料(例えば、蛍光体、量子ドット、試薬、チラミド、DAPI等)によって染色されたスライド(組織標本のような生体試料を含む)の画像において1つ以上のFOVを自動的に識別することを含む。
[00142] 画像取得システム102は、CCD検出システムのような検出システム、あ
るいはスペクトル・カメラのようなスキャナまたはカメラ、あるいは顕微鏡または顕微鏡および/または撮像コンポーネントを有するホール・スライド・スキャナ上のカメラを含んでもよい(画像取得システムは以上の例に限定されるのではない)。例えば、スキャナが生体試料(スライドのような基板上に置かれているとよい)を走査するのでもよく、画像は、ディジタル化画像としてシステムのメモリに保存されてもよい。画像取得システム102から受け取られた入力情報は、ターゲット組織の種類または物体についての情報、ならびに染色および/または撮像プラットフォームの識別を含むことができる。例えば、標本は、明視野撮像用の発色性染料または蛍光撮像用の蛍光体と関連付けられた1つ以上の異なるバイオマーカを含有する染色アッセイの適用によって染色されていてもよい。染色アッセイは、明視野撮像用の発色性染料、有機蛍光体、量子ドット、または蛍光撮像用の量子ドットと併せた有機蛍光体、あるいは染料、バイオマーカ、および目視デバイスまたは撮像デバイスの任意の他の組み合わせを使用することができる。更に、典型的な標本は、染色アッセイを標本に適用し、染色標本が得られる自動染色/アッセイ・プラットフォームにおいて処理される。更に、入力情報は、腫瘍マーカまたは特異免疫細胞のバイオマーカのような、組織上における特定の結合部位(binding site)またはターゲットに、どの特異抗体分子が、どの程度結合するかについての情報も含むことができる。バイオマーカおよび/またはターゲットの選択をシステムに入力することもでき、染料の最適な組み合わせの判定をアッセイに適用することが可能になる。システム100に入力される追加情報には、染色プラットフォームに関係する任意の情報を含むことができ、染色に使用される化学薬品の濃度、染色において組織に適用される化学薬品の反応時間、および/または組織の経年数(age)、固定方法、期間、どのように標本が埋め込まれたか、切除等のような、組織の分析前状態が含まれる。画像データおよびその他の入力情報は、直接送信することができ、あるいはネットワークを通じて、またはユーザの操作用コンピュータ101を介して提供されてもよい。
[00143] 分離モジュール111は、例えば、画像が多重画像である場合に、この画像
を分離するために実行することができる。分離モジュール111は、画像を個々のマーカ・カラー・チャネルに分離する。分離モジュール111は、基準カラー・マトリクス・データベース112から読み取り、基準カラー・マトリクスを得て、分離動作を実行するためにこの基準カラー・マトリクスを使用することができる。画像が単一染色スライドのものである場合、この画像はFOV選択に直接使用することができる。いずれの場合でも、ヒート・マップ計算モジュール113を実行して、個々のマーカ画像または単一染色画像に対してヒート・マップを評価することができる。ヒート・マップは、ホール・スライド画像上の種々の構造またはバイオマークの密度をマッピングする。これを遂行するために、ヒート・マップ計算モジュール113は、ロー・パス・フィルタ・モジュール114によって処理されたロー・パス・フィルタ画像(low pass filtered image)にカラーを割り当てるというような動作を実行することができる。また、組織領域マスクもロー・パス・フィルタ画像に適用することもできる。ヒート・マップは、画素のそれぞれの密度にしたがって画素を図示し(illustrate)、つまり各画像における細胞分布の密度に対応する。例えば、ヒート・マップは、密度が高い画素程低密度画素に使用されるカラーよりも暖かいカラーで図示することによって、高密度画素を低密度画素から区別する。極大値フィルタ・モジュール115は、極大値フィルタをロー・パス・フィルタ画像に適用して画像の極大値を得るために実行することができる。続いて、上位K個FOV選択モジュール116が、極大値フィルタ画像から、最も密度が高い上位K箇所の領域を選択するために実行することができる。上位K箇所の領域は、画像毎に候補FOVに指定される。例えば、細胞は、高密度領域では一緒に集まるが、低密度領域ではもっと散乱すると言って差し支えない。各画像からのFOVは、FOV併合モジュール117によって一緒に併合される。FOV併合モジュールは、全てのFOVを取り込む、または選択したマーカからのFOVのみを取り込む、およびこれらを併合するというような動作を実行する。レジストレーション・モジュール(registration module)118は、全ての画像を同じ座標系に転移させ、FOVの座標を直接同じ座標系において追加できる(add up)ようにするために呼び出される。
[00144] 先に説明したように、モジュールは、プロセッサ105によって実行される
ロジックを含む。「ロジック」とは、この説明においてそして本開示全体で使用する場合、プロセッサの動作に作用するために供給することができる命令信号および/またはデータの形態を有する任意の情報を指す。ソフトウェアは、このようなロジックの一例である。プロセッサの例には、コンピュータ・プロセッサ(処理ユニット)、マイクロプロセッサ、ディジタル信号プロセッサ、コントローラおよびマイクロコントローラ等がある。ロジックは、メモリ110のようなコンピュータ読み取り可能媒体上に格納された信号で形成することができ、例示的な実施形態では、コンピュータ読み取り可能媒体は、ランダム・アクセス・メモリ(RAM)、リード・オンリ・メモリ(ROM)、消去可能/電気的消去可能プログラマブル・リード・オンリ・メモリ(EPROM/EEPROM)、フラッシュ・メモリ等であってもよい。また、ロジックは、ディジタルおよび/またはアナログ・ハードウェア回路、例えば、論理AND、OR、XOR、NAND、NOR、およびその他の論理演算を構成する(comprise)ハードウェア回路も含むことができる。ロジックは、ソフトウェアおよびハードウェアの組み合わせで形成することもできる。ネットワーク上では、ロジックはサーバまたはサーバの複合体においてプログラミングすることができる。特定のロジック・ユニットがネットワーク上の1つの論理位置に限定されることはない。更に、モジュールは特定の順序で実行される必要は全くない。各モジュールは、他のモジュールを実行する必要があるときには、コールすることができる。
[00145] FOV選択のための例示的なワークフローを図1Bに示す。図1Bにおいて
、Nはスライドに適用されるマーカの数を表す。多重スライド121に対しては、例えば、"Image Adaptive Physiologically Plausible Color Separation"(生理学的にもっともらしい画像適応カラー分離)と題し、2013年6月3日に出願された特許出願第61/830,620号およびWO2014/195193 A1に開示されている分離方法にしたがって、カラー分離122を実行する。これらの特許出願をここで引用したことにより、その内容全体が本願にも含まれるものとする。2014年2月21日に出願され "Group Sparsity Model for Image Unmixing"(画像分離用のグループ・スパース・モデル)と題する特許出願第61/943,265号、および2014年12月18日に出願されたPCT/EP2014/078392に開示されている方法は、マーカ毎に画像123を得るために利用される例示的な実施形態に入る。これらの特許出願をここで引用したことにより、その内容全体が本願にも含まれるものとする。他の方法では、画像が単一染色スライドである場合、マーカ毎の単一染色スライドを走査した画像124が、図1Aに示すシステムのような自動FOV選択システムへの入力として利用される。例えば、各マーカの画像からホット・スポット125を計算して、マーカ毎に上位の候補FOV126を生成するために、ヒート・マップ計算動作を実行してもよい。候補FOV126を統合して(127)、最終的なFOVリスト128を生成してもよい。最終的なFOVリスト128は、生体試料、例えば、免疫細胞を評価するために病理学者が利用するために選択することができるFOVのリストを含む。
[00146] この説明においてそして本開示全体で使用する場合、ホット・スポットとは
、高密度のマークされた(即ち、染色)細胞を含む領域であり、例えば、ホット・スポットは、ISH、IHC、蛍光体、量子ドット等のような異なる種類の画像およびマーカからの細胞とすることができる。本開示は、この特徴を実証するための例として、IHC画像において免疫細胞を使用する(既に論じたように、本発明はICH画像における免疫細胞に限定されるのではない)。本開示を考慮すると、ホット・スポットを発見するため、そして浸潤度計算において自動ホット・スポット選択をモジュールとして使用するために、種々のアルゴリズムを当業者が使用することができる。本開示の例示的な実施形態は、手作業で選択されるFOVの偏りを回避する問題を解決するために、本明細書において説明する自動FOV選択動作を利用する。病理学者またはその他の評価者が関心を寄せると思われるFOVを自動的に識別するために、低解像度画像に基づいて(例えば、5倍ズーム画像)、マーカ毎または単一マーカを表す画像毎に、ヒート・マップを計算する。
[00147] 図2は、本開示の例示的な実施形態によるヒート・マップの計算を示す。図
2において説明する動作は、ホット・スポットを識別するためにヒート・マップ計算をどのように利用するかについて例示する。例えば、入力画像231の単一マーカ・チャネル232を仮定すると、ロー・パス・フィルタ画像234を使用してヒート・マップ235を生成する。これは、基本的に、ロー・パス・フィルタ画像234を入力として取り込み、その上に、ビジュアライゼーションの目的でカラー・マップを適用する。例えば、赤色がロー・パス・フィルタ画像における高明暗度画素に対応してもよく、青色が低明暗度画素に対応してもよい。他のカラーおよび/または明暗度の描画も、本開示を考慮すれば、当業者には明白であろう。組織領域を識別し背景領域を除外することによって、組織領域マスク233を作成することができる。この識別は、エッジ検出等のような画像分析動作によって可能にすればよい。組織領域マスク233は、画像における非組織背景ノイズ、例えば、非組織領域を除去するために使用される。
[00148] 図2に関して検討した実施形態では、入力画像231が染料およびそのそれ
ぞれの対比染料によって染色され、2つのチャネル、即ち、FP3チャネルおよびHTXチャネルが得られる。この2チャネル画像231を分離して、それぞれ、FP3およびHTチャネルの分離画像232および238を供給する。
[00149] 次いで、空間ロー・パス・フィルタによって、分離画像232にロー・パス
・フィルタリングして、ロー・パス・フィルタ画像(low pass filtered image)234を
得る。次に、ビジュアライゼーションの目的で、ロー・パス・フィルタ画像234にヒート・マップ235を追加する。
[00150] 次いで、分離画像238を使用して、図3において説明する方法によって組
織領域マスク233を計算する。
[00151]
[00152] 次に、ヒート・マップ235が追加されたまたはされないロー・パス・フィ
ルタ画像234に、極大値フィルタリングを行い、極大値フィルタ画像(local max filtered image)236を得る。極大値フィルタ画像236は、複数の極大値239、ここで検討する例では、図2に示すように、5つの極大値239.1~239.5を含む。次に、閾値を上回る極大値239.1および239.4のみが閾値設定動作によって除去されないように、この閾値を極大値フィルタ画像236に適用することによってというようにして、閾値設定動作を極大値フィルタ画像236に対して行う。
[00153] あるいは、極大値239を並び替えリストにおいて順序付けし、上位K個の
極大値だけをリストから取り出す。ここでKは、ここで検討する実施形態における説明に限っては、2であり、極大値239.1および239.4が得られる。極大値239の各々は、1組の近隣画素から成る。
[00154] この閾値設定動作によって、絞り込み画像(thresholded image)237が得られる。絞り込み画像237における極大値239.1および239.4の各々は、それぞれの視野240.1および240.2の位置を、それぞれ、画定することができる。実施態様に応じて、これらの視野240.1および240.2は、図6に関して以下で説明するような後続の処理動作において、これらの視野を他の視野と併合できるか否か検査するための候補視野となることができる。視野240.1および240.2の位置は、絞り込み画像237およびその極大値によって画定される。しかしながら、全ての描画情報コンテンツを利用してそれぞれの視野の画像分析を行うために、元のマルチチャネル画像231内におけるそれぞれの画像エリアからこれらの視野のコンテンツが取り込まれる。
[00155] 図3は、セグメント化技法によって分離画像238から組織マスク233を
計算するためというような、本開示の例示的な実施形態による組織マスク計算を示す。組織RGB画像のRGBチャネル336の線形結合337を計算して、グレースケール輝度画像338を作成する。R、G、およびBチャネルに対する結合重み(例えば、337における0.3、0.6、0.1)は、異なる用途に基づいて変更される可能性がある。3画素×3画素の標準偏差フィルタ339を輝度画像338にかけて、フィルタ輝度画像(filtered luminance image)340を得る。ここで、フィルタ・サイズ(例えば、3×3、5×5)は、異なる用途に基づいて変更される可能性がある。組織マスク342は、フィルタ輝度画像340に閾値設定した(341)ことによって得られた二進画像である。例えば、組織マスク342は、画素明暗度値が1.5よりも大きい領域を含むのでもよい。閾値設定パラメータMaxLum(例えば、1.5、2.0、3.0)は、異なる用途に基づいて、変動する可能性がある。
[00156] 図4は、本開示の例示的な実施形態による候補FOVを示す。候補視野44
3は、ヒート・マップの最も密度が高い上位K箇所の領域(ホット・スポットとも呼ぶ)から選択される。例えば、Kは、5、10、15、20等から選択することができる。極大値フィルタ画像236を得るために、ヒート・マップ235(図2参照)が追加されたロー・パス・フィルタ画像234に、極大値フィルタを適用する。尚、ヒート・マップ235はこの処理のために必須なのではなく、ビジュアライゼーションの目的に供することは注記してしかるべきである。極大値フィルタは、一定値の画素を接続して、その境界の外側にある画素が全てその一定値よりも低い値を有する領域を識別する機能である。これは、2-D画像では、4つまたは8つの接続した近隣画素を使用することができる。この機能の実現例(implementation)はMatlab(http://www.mathworks.com/help/images/ref/imregionalmax.html)において入手可能である。
[00157] 極大値は、接続領域内における平均明暗度として得られる。極大値をソート
して、ホット・スポットの順序付けを行うための並び替えリストを得て、上位K箇所のホット・スポットを報告し、こうして極大値フィルタ画像に閾値設定を行う。あるいは、閾値よりも高い全てのホット・スポットが報告されるように、極大値フィルタ画像に既定の閾値を適用する。極大値フィルタ計算モジュールによって戻される領域は、極大値の位置である。
[00158]
[00159] 本明細書において説明するように、多重スライドの分離からまたは単一染色
スライドから生成される異なるマーカ画像毎に、異なるFOVを得ることができる。診断対象の患者毎に、同じ1組のFOVが異なるマーカにわたって参照されることを確保するために、これらのFOVを統合する。FOVを統合するには、様々な可能な選択肢がある。図5A~図5Bは、それぞれ、本開示の例示的な実施形態による、全てのマーカからのFOV、および選択したマーカからのFOVの併合を示す。例えば、図5Aに示すように、異なるマーカ画像からの全ての候補FOVを併合してもよい。代わりに、図5Bに示すように、異なるマーカ画像毎に異なるFOVを選択し併合してもよい。
[00160] 更に、異なるマーカ画像に対する異なるFOVは、ユーザの要望に基づいて
、独立して分析することもできる。図6A~図6Bは、本開示の例示的な実施形態による、FOVの統合を示す。図6Aを参照すると、全てのFOVが選択され、図6Bを参照すると、特定のマーカに対応するFOVだけが選択される。各円661は、マーカに対して可能なFOVを表す。各円661における各ドット662は、各FOVに対する極大点を表す。各円661が異なるマーカを包囲してもよい。線663は、腫瘍領域と非腫瘍領域との間の分離に対応する。腫瘍領域の外側にあるFOV664は、結合(union)および交差(intersection)というような形態学的処理によって除外される。最終的なFOV(即ち、分析のために選択されたFOV)は、図5Aおよび図5Bの方法によって図示されるように、各マーカからの全てのFOVの結合となる。
[00161] ある実施形態では、FOVは極大値の周囲にある矩形であってもよい。他の
実施形態では、FOVは任意の形状でもよい。ある実施形態では、FOVは高明暗度領域の周りの境界であってもよい。
[00162] 図6Bは、所与の問題に対してユーザによって最も重要なマーカを指定し、
選択されたマーカに基づいてFOVを併合する動作を示す。例えば、PF3およびCD8が最も重要なマーカであると仮定する。画像レジストレーション(image registration)を使用して、単一マーカの全ての画像を同じ座標系に位置合わせさせることもできる(例えば、基準座標は、組織ブロックの中央にあるスライド・セクション、または特定のマーカがあるスライドとすることができる)。したがって、各画像をその古い座標系から新たな基準座標系に位置合わせさせることができる。個々のマーカ画像から選択されたマーカ(
例えば、FP3およびCD8)のFOVを共通空間に位置合わせさせ、結合および交差のような形態学的処理を使用して併合し、併合FOV(図6BにおけるFOV665)を得ることもできる。図6Cは、形態学的処理を示す。AはCD8画像からのFOVであり、BはFP3画像からのFOVであると仮定する。最初に、AおよびBを同じ座標系において重ね合わせ、AおよびBの交差を計算することによって重複領域Cを求める。次いで、Cの面積とA(またはB)の面積との比率を評価する。この比率が閾値(例えば、0.6、0.8等)よりも大きい場合、これらのFOVを選択し、そうでない場合、これらのFOVを破棄する。併合したFOVは、更なる分析のために、逆レジストレーション(即ち、新たな座標系において一致させた画像を、逆にその本来の古い座標系に位置合わせさせる)を使用して、単一マーカ画像の全てに逆にマッピングすることができる。腫瘍領域の外側にあるFOV664は除外される。
[00163] 図7および図8は、本開示の例示的な実施形態による、全てのマーカ・ビュ
ーおよび個々のマーカ・ビューを使用する画像分析のためのユーザ・インターフェースを示す。これらの例示的な実施形態では、コンピューティング・デバイスに付随するユーザ・インターフェースを利用してFOV選択を実行してもよい。このユーザ・インターフェースは、全マーカ機能(図7)および単一マーカ機能(図8)を有することができる。ユーザ・インターフェースの上位にあるタブから選択することによって、マーカ機能にアクセスすることができる。図7に示す全マーカ機能を使用するとき、全てのマーカを目視することができ、ヒート・マップ計算、FOV選択、キー・マーカ選択、レジストレーションおよび逆レジストレーションを実行することができる。全マーカ・ビュー(即ち、全てのマーカを並べて表示するビュー)では、画像フォルダのリスト771をロードする(a)というような選択肢を設けることもできる。各フォルダは、同じ場合について多重染色および単一染色を含む全ての画像を収容する。リストにおける画像全てのバッチ処理が可能である。機能パネル(feature panel)772において設けられる他の選択肢には、画像を同時に拡大ズーミングまたは縮小ズーミングして対応する領域を目視するために全ての画像の軸をリンクする(b)、FOVの数を選択する(c)、画像を共通座標系に位置合わせさせる(d)、およびFOVを統合するために、ユーザに最も重要なマーカを選別させる(pick)(e)動作を含むことができる。マーカに色を付けて、FOVの選択に関わったことを示してもよい。更に他の選択肢を設けるのであれば、ヒート・マップ・ビューとIHCビューとの間でユーザに切り替えさせる機能774、各画像のヒート・マップを計算する機能773を含むことができる。
[00164] 図8は、マーカ毎に最終的に選択したFOVを表示する、個別マーカ・ビュ
ーまたは単一マーカ・ビューを示す。このビューにおいて設けられる機能(feature)には
、ホール・スライド画像のサムネイル881を表示する機能を含むことができ、FOVにはサムネイル画像においてボックスによって注釈が付けられ、ボックスの近くにある数値(text number)はFOVのインデックスを示す。他の機能(feature)には、ユーザがチェックボックスを使用して望ましくないFOVを削除するために、FOVリスト883から選択させる機能、選択されたFOV882の高解像度画像を表示する機能、各FOVの画像を本来の解像度でローカル・フォルダに保存する機能(d)、およびユーザに標識を各FOVに割り当てさせる機能(e)を含むことができる。この標識は、周辺領域、腫瘍領域、およびリンパ球領域等のような、FOVと関連がある領域とすることができる。尚、これらの例示的なインターフェースは、用途毎に異なり、更に種々のコンピューティング技術間でも異なることもあり、本開示を考慮して、本明細書において説明する新規な特徴を実施可能にする限り、異なるバージョンのインターフェースを使用してもよいことは、当業者には認められよう。
[00165] したがって、本明細書において開示するシステムおよび方法は、自動FOV
選択を可能にし(provide)、生体試料の分析に重要であり、例えば、浸潤度計算において
組織分析スコアを計算する際に有用であることが分かっている。本明細書において開示する動作は、FOVの選択が再現可能でない、人間の読み手による手作業のFOV選択に偏りがあるというような、先行技術において知られている欠点を克服する。何故なら、自動FOV選択は、人間の読み手の手作業による選択に頼ることなく、コンピュータによってFOVを求めることができるからである。自動免疫細胞計数およびデータ分析と組み合わせると、開示する動作は、1つ以上の走査画像または画像データを入力として取り込み、最終的な臨床成果予測を出力する、完全に自動的なワークフローを可能にする。本明細書において開示するシステムおよび方法は、自動FOV選択を可能にし(provide)、生体試
料の分析に重要であり、例えば、浸潤度計算において組織分析スコアを計算する際に有用であることが分かっている。本明細書において開示する動作は、FOVの選択が再現可能でない、人間の読み手による手作業のFOV選択に偏りがあるというような、先行技術において知られている欠点を克服する。何故なら、自動FOV選択は、人間の読み手の手作業による選択に頼ることなく、コンピュータによってFOVを求めることができるからである。自動免疫細胞計数およびデータ分析と組み合わせると、開示する動作は、1つ以上の走査画像または画像データを入力として取り込み、最終的な臨床成果予測を出力する、完全に自動的なワークフローを可能にする。
[00166] 図9は、本開示の例示的な実施形態による、浸潤度計算のためのディジタル
病理学ワークフローを示す。この実施形態は、本明細書において開示する自動FOV選択方法を、浸潤度計算ワークフローにおいてどのように利用できるかについて例示する。例えば、本明細書において開示する動作にしたがってスライドを走査し(991)、FOVを選択した(992)後、各FOVにおける異なる種類の細胞の自動検出993を実行することができる。例えば、 "Deep Learning for Cell Detection"(細胞検出のためのデ
ィープ・ラーニング)と題し、2014年5月23日に出願された米国特許出願第62/002,633号およびPCT/EP2015/061226に開示された方法による自動細胞検出技法が、細胞を得て検出する(obtain detect)ために利用される例示的な実施
形態である。この特許出願をここで引用したことにより、その内容全体が本願にも含まれるものとする。更に、特徴(例えば、識別された細胞の数および種類に関係する特徴)を抽出する(994)ことができる。これらは、生体試料(例えば、組織標本等)毎に検出された1つ以上の細胞に関係する。これらの特徴は、腫瘍領域および周辺領域のような、組織画像における異なる領域に関係する異なるFOVにおける異なる種類の細胞の数、および細胞の比率とすることができる。これらの特徴を使用して、クラシファイア(ランダム・フォーレスト(Random Forest)およびサポート・ベクトル・マシン(support Vector Machine)のような)を訓練し(995)、各ケースを異なる成果クラス(例えば、再発す
るまたはしない可能性)に分類することができる。
[00167] 図10は、本発明の例示的な実施形態のプロセス・フローを示す。画像取得
システムから入力画像(1001)を受け取る。加えて、画像取得システムから一連の低解像度マーカ画像(1004)を受け取る。マーカ画像は、高解像度画像の分離によって導き出してもよく、または単一染色スライド画像として受け取ってもよい。低解像度入力画像を使用して組織領域マスク(1003)を計算する。組織領域マスクは、画像のどの部分が対象の組織を含むかを示す。低解像度画像マーカ画像をロー・パス・フィルタに通し、フィルタ画像マーカ画像(filtered image marker image)(1005)を生成する。
次いで、組織領域マスクをロー・パス・フィルタ画像に適用して、対象でない領域を排除する(0に減らす)。これによって、マーカ毎にマスク・フィルタ画像(masked filtered
image)(1006)が得られる。極大値フィルタを極大値フィルタ画像(max filtered image)に適用して、極大値(1007)を識別する。上位K個の極大値を選択し(100
8)、極大値毎に視野を画定する(1009)。次いで、全ての画像を共通座標フレームに移転させ、重ね合わせ、あらゆる重複した視野を組み合わせることによって、画像毎のFOVを併合する(1010)。次いで、併合視野を本来の画像座標系に逆に移転させ、
分析のために高解像度入力画像からこれらの領域を抽出する。
[00168] 図11は、本発明の他の例示的な実施形態の異なるプロセス・フローを示す
。このプロセス・フローは、図11aに示すようなFOV生成ステップ(1100)と、図11bに示すような視野併合ステップ(1124)とに分割されている。FOV生成ステップでは、画像取得システムから単一染色画像(1101)を受け取る。これらの画像にロー・パス・フィルタリングを行う(1102)。ある実施形態では、これらの画像をもっと低い解像度に変換してもよく(1103)、これによって処理が高速化する。ある実施形態では、未だ単一カラー・チャネルに変換されて(reduced)いない場合には、分離
ステップ(1104)は、単一染色スライドから対象のカラー・チャネルを抽出するために適用して、単一マーカ画像(1108)を生成してもよい。ある実施形態では、HTX画像(1105)も生成することができる。次いで、対象の特徴を識別するために、単一マーカ画像をセグメント化する(1109)。セグメント化画像から、組織領域マスク(1110)を生成する。ある実施形態では、単一マーカ画像において様々な明暗度の領域にカラーを割り当てることによって、ヒート・マップ(1107)を使用して、単一マーカ画像をビジュアル化する(1106)こともできる。次いで、組織領域マスク(1110)を単一マーカ画像(1111)に適用して、前景画像(1112)を得る。前景画像は、対象の組織領域のみにおいてマーカ画像の明暗度を表示する。前景画像を極大値フィルタ(1113)に通して、明暗度のピークを識別する。候補FOV座標を、極大値フィルタ画像(1114)の上位K個のピークとして識別する。最後に、各候補FOV座標周囲の領域を画定し(1115)、候補FOVのリスト(1116)を得る。これらの動作を、単一染色スライド毎に実行する。
[00169] FOV併合ステップ(1124)において、種々の単一染色スライドに対す
る候補FOVリストの全てを得る(1117)。1つの画像を基準画像として選択し、他の画像を基準画像と一致するように変換することによって、画像を1つの座標フレーム(coordinate frame)に一致させる(1118)。次いで、候補FOV座標を適宜変換し、位置合わせ候補FOVリストを得る(1119)。次いで、FOVを重ね合わせて併合し(1120)、全ての画像に対する統一FOVリストを得る(1121)。次いで、逆レジストレーションを実行して(1122)、統一FOVを逆に本来の単一染色画像の本来の座標系の各々に変換する(1123)。次いで、本来の単一染色スライド上にFOVを表示することができる。
[00170] 図12は、多重スライドを入力(1201)として使用する、本発明の代替
実施形態のプロセス・フローを示す。FOV生成ステップにおいて、多重スライド(1201)を画像取得システムから受け取る。これらの画像にロー・パス・フィルタリングを行う(1202)。ある実施形態では、これらの画像をもっと低い解像度に変換してもよく(1203)、これによって処理が高速化する。この実施形態では、分離ステップ(1204)は、多重スライドから対象のカラー・チャネルを抽出するために適用され、複数の単一マーカ画像を生成する(1208)。ある実施形態では、HTX画像(1205)も生成することができる。次いで、第1単一マーカ画像をセグメント化し(1209)、対象の特徴を識別する。セグメント化画像から、組織領域マスク(1210)を生成する。ある実施形態では、ヒート・マップ(1207)を使用し、単一マーカ画像における様々な明暗度の領域にカラーを割り当てることによって、単一マーカ画像をビジュアル化することもできる(1265)。次いで、組織領域マスク(1210)を単一マーカ画像(1210)に適用して前景画像(1212)を求める。前景画像は、対象の組織領域のみにおけるマーカ画像の明暗度を表示する。この前景画像を極大値フィルタ(1213)に通して、明暗度のピークを識別する。候補FOV座標を、極大値フィルタ画像(1214)の上位K個のピークとして識別する。最後に、各候補FOV座標周囲の領域を画定して(1215)、候補FOVのリストを得る(1216)。これらの動作は、単一染色スラ
イド毎に順番に実行される。FOV併合ステップは、図11bにおけるように進む。
[00171] 図13は、単一染色画像(1301)を入力として使用する、本発明の代替
実施形態の更に他のプロセス・フローを示す。画像にロー・パス・フィルタリングを行う(1302)。ある実施形態では、これらの画像をもっと低い解像度(1303)に変換してもよく、これによって処理が高速化する。ある実施形態では、未だ単一カラー・チャネルに変換されていない場合、単一染色スライドから対象のカラー・チャネルを抽出するために分離ステップ(1304)を適用し、単一マーカ画像を生成することができる(1308)。ある実施形態では、HTX画像(1305)も生成することができる。他の実施形態では、ヒート・マップ(1307)を使用し、単一マーカ画像における様々な明暗度の領域にカラーを割り当てることによって、単一マーカ画像をビジュアル化することもできる(1306)。一実施形態では、解像度が低い方の画像をセグメント化し(1309)、対象の特徴を識別する。セグメント化画像から、組織領域マスク(1310)を生成し、次いでマスク動作をセグメント化画像に適用し(1311)、前景画像(1312)を求める。前景画像は、対象の組織領域のみにおけるマーカ画像の明暗度を表示する。他の実施形態では、マスク動作(1311)を単一マーカ画像(1308)に適用し、前景画像(1312)を求める。いずれの実施形態でも、前景画像(1312)を極大値フィルタ(1313)に通し、明暗度のピークを識別する。候補FOV座標を、極大値フィルタ画像(1314)の上位K個のピークとして識別する。最後に、各候補FOV座標周囲の領域を画定し(1315)、候補FOVのリスト(1316)を得る。これらの動作は、単一染色スライド毎に実行される。FOV併合ステップは、図11bにおけるように進む。
[00172] 本発明による自動FOV選択のためのコンピュータ実装方法について、例示
の目的に限って、免疫細胞の識別に関連付けて、そして浸潤度計算における使用について説明した。しかしながら、本発明による自動FOV選択のためのコンピュータ実装方法は、任意の種類の細胞の画像または生体試料の画像にも適用可能であり、任意の種類の細胞または細胞群についての種類、密度、および位置の判定に適用可能である。更に、前立腺/肺癌診断などのような解剖または臨床病理学のような医療用途以外にも、地質学または天文学データ等の遠隔検知のような、他の種類の標本を分析するために同じ方法を実行することができる。本明細書において開示した動作は、ハードウェア・グラフィクス処理ユニット(GPU)に移植する(port)ことができ、マルチスレッド並列実施を可能にする。
[00173] 図23は、患者の組織領域から得られた生検組織標本10を示す。組織標本
10は、スライスされて、図23に示すように、組織スライス1、2、3、および4のような近隣組織スライスになる。これらの組織スライスは、1μm~10μmの間というようなマイクロメートル範囲の厚さ、例えば、6μmの厚さを有することができる。
[00174] これらの組織スライスを1つの染料、染料および対比染料、または複数の染
料で染色する。このようにして、例えば、染料および対比染料によって染色された画像231(図2参照)、およびマルチチャネル画像5が得られる。
[00175] マルチチャネル画像5は、複数の染料によって染色された組織スライス1、
2、3、4の1つから、例えば、これらの組織スライスの1つを伝える(carry)ことがで
きる図1Bの多重スライド121から、得ることができる。加えて、単一染色画像6および7のような染色組織スライスから更に他の画像も取得することができる。これらの画像231、5、6、および7は、コンピュータ101(図1A参照)の電子メモリ内にというように、画像処理システムの電子メモリに格納することができる。コンピュータ101はサーバ・コンピュータであってもよい。
[00176] 自動視野画定は、画像231に関してというように、複数の画像の内1つ以
上に関して実行し、絞り込み画像237を得ることができる。絞り込み画像237において、視野240.1および240.2は、図2の実施形態にしたがって、それぞれの矩形ボックスによって示されている。画像5を分離する際、一般性の限定ではなく、N=3と仮定すると(図1B参照)、1組の分離画像5.1、5.2、および5.3が求まる。尚、分離画像5.1、5.2、および5.3は、画像レジストレーションも画像位置合わせもこの1組の画像に関しては不要となるように、全て同じマルチチャネル画像5から得られたので、これらは正確に同じ座標系を共有することは注記してしかるべきである。追加の画像6および7は、画像処理動作を受けても受けなくてもよい。
[00177] 次いで、画像レジストレーション・アルゴリズムを使用して、画像231/
237、5、6、および7を一致させ(registered)、位置合わせする。例えば、画像レジストレーション・アルゴリズムを実行するために、マルチチャネル画像5を基準画像として選択する。画像レジストレーション・アルゴリズムは、他の画像の各々の幾何学的変換、即ち、マルチチャネル画像5に関する画像231/237、6、および7の幾何学的変換を行う(generate)。マルチチャネル画像5をレジストレーションのための基準画像として使用すると、ここで検討している例では、位置合わせ動作を3回だけ実行すれば済むという利点がある。比較すると、例えば、画像7が基準画像として選択されたとすると、画像7との位置合わせのために、5回の位置合わせ動作が画像231/237、5.1、5.2、5.3、および6を変換するために必要となる。したがって、マルチチャネル画像5を基準として選択すると、計算の負担が大幅に低減し、画像位置合わせのレイテンシ時間が短縮する。
[00178] 例えば、画像231/237の各画素を画像5におけるそれぞれの画素にマ
ッピングするためのマッピング、画像6の各画素をマルチチャネル画像5におけるそれぞれの画素にマッピングするためのマッピング等のように、他の画像231/237、6、および7の各々について、基準画像5へのマッピングを生成する。ここで検討する例では、この結果3つのマッピングができる。尚、画像231/237をマルチチャネル画像5にマッピングするためのマッピングは、画像231または画像237のいずれかを使用して得ることができることは注記してしかるべきである。何故なら、これら2つの画像は、図2にしたがって実行した分離ステップによって、同じ座標系を共有するからである。
[00179] 幾何学的変換、即ち、ここで検討する例におけるマッピングは、画像レジス
トレーションの結果として得られ、次いで画像237、6、および7を基準画像、即ち、マルチチャネル画像5/分離画像5.1、5.2、および5.3に関して位置合わせするために利用される。
[00180] これらの位置合わせ画像は、コンピュータ101(図1の実施形態参照)等
のディスプレイ8、あるいは、例えば、AndroidまたはiOSオペレーティング・システムを実行するスマートフォンのような移動体バッテリ給電型電気通信デバイスのディスプレイ上に表示される。後者の場合、画像237、5.1、5.2、5.3、6、7、ならびに画像レジストレーションおよび視野240.1および240.2を示すメタデータから得られる幾何学的変換、例えば、マッピングは、移動体セルラ・ディジタル電気通信ネットワークのような、電気通信ネットワークを通じて、例えば、GSM(登録商標)、UMTS、CDMA、またはロング・ターム・エヴォリューション規格にしたがって、移動体バッテリ給電型電気通信デバイスに送信される。ディスプレイ8は、コンピュータ101のグラフィカル・ユーザ・インターフェースを介して、または電気通信デバイスを介して、ジェスチャ認識によってコマンドを入力することを可能にするタッチ感応型でもよい。
[00181] 一実施形態では、ユーザは、視野をシンボル化するそれぞれの幾何学的オブ
ジェクト、即ち、矩形ボックスをタッチすることによって、視野から1つを選択することができる。一例としてのみ図23に示すように、これは、ユーザが彼または彼女の指14の1本を置いた視野240.1であってもよい。このジェスチャに応答して、図23にも示すように、この視野を拡大することによって、拡大ズーム画像変換が実行される。
[00182] 同一の拡大ズーム変換が、他の画像5.1、5.2、5.3、6、および7
に関しても同期して実行される。視野240.1は、画像5.1、5.2、5.3、6、および7におけるそれぞれの画像部分9、10、11、12、13に対応する。これらの画像部分9から13は、画像レジストレーション、即ち、マッピングから得られたそれぞれの幾何学的変換によって与えられる。ユーザのジェスチャ、即ち、指14による視野240.1のタッチに応答して、視野240.1に関して実行される拡大ズーム画像変換が、同期して画像部分9から13に関しても実行される。
[00183] 図24は、ピンチ・ジェスチャ(pinch gesture)が拡大ズームまたは縮小ズームに利用される代替実施形態を示す。ユーザは、2本の指14および15をディスプレイ8上に置くことによって、画像5.1の一部というような、画像の1つの一部を選択し、こうして矩形領域16を画定することができる。この矩形領域16は、他の画像237、5.2、5.3、6、および7において、それぞれ、同じ位置にある画像領域(co-located image regions)17から21に対応する。これらは、画像レジストレーション、即ち、マッピングから得られる幾何学的変換によって与えられる。領域18および19は、領域16と同一である。何故なら、画像5.1、5.2、および5.3は同一の座標系を共有するからである。
[00184] 図24に示すように指15および14を遠ざけることによって、領域16に
関して拡大ズームを実行して拡大画像部分16’を求め、更に同期して他の同じ位置にある領域17~21に関しても拡大ズームを実行して、拡大領域17’、18’、19’、20’、および21’を求める。指14および15の距離を縮めることによって、縮小ズームも同様に実行することができる。
[00185] コンピュータは、通例、プロセッサ、オペレーティング・システム、システ
ム・メモリ、メモリ記憶デバイス、入力-出力コントローラ、入力-出力デバイス、およびディスプレイ・デバイスのような、周知のコンポーネントを含む。また、コンピュータには多くの可能な構成およびコンポーネントがあり、キャッシュ・メモリ、データ・バックアップ・ユニット、および多くのその他のデバイスも含んでもよいことも、関連技術における当業者には理解されよう。入力デバイスの例には、キーボード、カーソル制御デバイス(例えば、マウス)、マイクロフォン、スキャナ等が含まれる。出力デバイスの例には、ディスプレイ・デバイス(例えば、モニタまたは投影機)、スピーカ、プリンタ、ネットワーク・カード等が含まれる。ディスプレイ・デバイスは、視覚情報を提供するディスプレイ・デバイスを含んでもよく、この情報は、通例、画素のアレイとして、論理的および/または物理的に編成することができる。また、インターフェース・コントローラも含んでもよく、インターフェース・コントローラは、入力および出力インターフェースを設けるための種々の既知のソフトウェア・プログラムまたは今後のソフトウェア・プログラムの内任意のものを含んでもよい。例えば、インターフェースは、1つ以上のグラフィック表現をユーザに提供する、一般に「グラフィカル・ユーザ・インターフェース」(GUIと呼ばれることも多い)と呼ばれるものを含んでもよい。通例、インターフェースがイネーブルされると、関連技術における当業者には周知の選択または入力手段を使用して、ユーザ入力を受け入れる。また、インターフェースはタッチ・スクリーン・デバイスであってもよい。同じ実施形態または代替実施形態において、コンピュータ上のアプリケーションが、「コマンド・ライン・インターフェース」(CLIと呼ばれることも多い)と呼ばれるものを含むインターフェースを採用してもよい。CLIは、通例、アプリケーションとユーザとの間に、テキスト・ベースの対話処理を設ける。通例、コマンド・ライン・インターフェースは、ディスプレイ・デバイスを通じて、テキストのラインとして出力を提示し、入力を受け取る。例えば、一部の実施態様では、関連技術における当業者には周知のUnix Shells、またはMicrosoft.NETフレームワークのような、オブジェクト指向型プログラミング・アーキテクチャを採用するMicrosoft Windows Powershellのような、「シェル」と呼ばれるものを含んでもよい。
[00186] インターフェースは1つ以上のGUI、CLI、またはこれらの組み合わせ
を含んでもよいことは、関連技術における当業者には認められよう。プロセッサは、Intel Corporationが製造するCeleron、Core、またはPentiumプロセッサ、Sun Microsystemsが製造するSPARCプロセッサ、AMD Corporationが製造するAthlon、Sempron、Phenom、またはOpteronのような、市販のプロセッサを含むことができ、または入手可能なまたは今後入手可能になる他のプロセッサの1つであってもよい。プロセッサの実施形態には、マルチコア・プロセッサと呼ばれるものを含み、および/または単一コアまたはマルチコア構成の並列処理技術を採用することが可能とされるものもある。例えば、マルチコア・アーキテクチャは、通例、2つ以上のプロセッサ「実行コア」を含む。この例では、各実行コアが、独立したプロセッサとして実行することができ、複数のスレッドの並行実行を可能にする。加えて、関連技術における当業者には、プロセッサが、32または64ビット・アーキテクチャと一般に呼ばれるもの、あるいは現在知られているまたは今後開発される可能性がある他のアーキテクチャ構成で構成されてもよいことが認められよう。
[00187] プロセッサは、通例、オペレーティング・システムを実行する。オペレーテ
ィング・システムは、例えば、Microsoft CorporationからのWindows型オペレーティング・システム、Apple Computer Corp.からのMac OS Xオペレーティング・システム、多くの販売業者から入手可能なUnixまたはLinux(登録商標)型オペレーティング・システム、あるいはオープン・ソースと呼ばれるもの、その他のオペレーティング・システムまたは今後のオペレーティング・システム、もしくはこれらの何らかの組み合わせであってもよい。オペレーティング・システムは、ファームウェアおよびソフトウェアと周知の様式でインターフェースし、種々のプログラミング言語で書かれることもある種々のコンピュータ・プログラムの機能を調整および実行するときに、プロセッサを補助する(facilitate)。オペレーティング・システムは、通例、プロセッサと協働して、コンピュータの他のコンポーネントの機能を調整および実行する。また、オペレーティング・システムは、スケジューリング、入力-出力制御、ファイルおよびデータ管理、メモリ管理、ならびに通信制御および関連サービスも、全て周知の技法にしたがって、提供する。
[00188] システム・メモリは、所望の情報を格納するために使用することができ、コ
ンピュータによってアクセスすることができる種々の既知のメモリ記憶デバイスまたは今後のメモリ記憶デバイスの内任意のものを含んでもよい。コンピュータ読み取り可能記憶媒体は、揮発性および不揮発性、リムーバブルおよび非リムーバブル媒体を含むことができ、コンピュータ読み取り可能命令、データ構造、プログラム・モジュール、またはその他のデータというような情報の格納のための任意の方法または技術で実現される。例には、一般に入手可能なあらゆるランダム・アクセス・メモリ(RAM)、リード・オンリ・メモリ(ROM)、電子的消去可能プログラマブル・リード・オンリ・メモリ(EEPROM)、ディジタル・バーサタイル・ディスク(DVD)、常駐ハード・ディスクまたはテープのような磁気媒体、リードおよびライト・コンパクト・ディスクのような光媒体、あるいはその他のメモリ記憶デバイスが含まれる。メモリ記憶デバイスには、種々の周知のデバイスまたは今後のデバイスの内任意のものを含んでもよく、コンパクト・ディスク・ドライブ、テープ・ドライブ、リムーバブル・ハード・ディスク・ドライブ、USBまたはフラッシュ・ドライブ、あるいはディスケット・ドライブが含まれる。このようなタイプのメモリ記憶デバイスは、通例、コンパクト・ディスク、磁気テープ、リムーバブル・ハード・ディスク、USBまたはフラッシュ・ドライブ、あるいはフロッピ・ディスケットのようなプログラム記憶媒体からそれぞれ読み取りを行い、および/またはこれらに書き込みを行う。これらのプログラム記憶媒体、あるいは現在使用されている他のプログラム記憶媒体、または今後開発される可能性があるプログラム記憶媒体はいずれも、コンピュータ・プログラム製品と見なしてもよい。認められるであろうが、これらのプログラム記憶媒体は、通例、コンピュータ・ソフトウェア・プログラムおよび/またはデータを格納する。コンピュータ・ソフトウェア・プログラムは、コンピュータ制御ロジックとも呼ばれ、メモリ記憶デバイスと共に使用されるシステム・メモリおよび/またはプログラム記憶デバイスに格納されるのが通例である。ある実施形態では、コンピュータ・プログラム製品は、制御ロジック(プログラム・コードを含むコンピュータ・ソフトウェア・プログラム)が格納されているコンピュータ使用可能媒体を含むというように記述される。制御ロジックは、プロセッサによって実行されると、本明細書において説明した機能をこのプロセッサに実行させる。他の実施形態では、一部の機能は、例えば、ハードウェア状態機械を使用して、主にハードウェアで実現される。本明細書において説明した機能を実行するハードウェア状態機械の実現は、関連技術の当業者には明白であろう。入力-出力コントローラは、人間または機械に関係なく、ローカルまたはリモートにも関係なく、ユーザから情報を受け入れて処理するための種々の既知のデバイスの内任意のものを含むことができる。このようなデバイスは、例えば、モデム・カード、ワイヤレス・カード、ネットワーク・インターフェース・カード、サウンド・カード、または種々の既知の入力デバイスの任意のもののための他のタイプのコントローラを含む。出力コントローラは、人間または機械に関係なく、ローカルまたはリモートにも関係なく、ユーザに情報を提示するための種々の既知のディスプレイ・デバイスの任意のもののためのコントローラを含むことができる。現在説明している実施形態では、コンピュータの機能エレメントがシステム・バスを介して互いに通信する。コンピュータの実施形態には、ネットワークまたは他のタイプの遠隔通信を使用して、いくつかの機能エレメントと通信できるものもある。関連技術の当業者には明白であろうが、計器制御および/またはデータ処理アプリケーションがソフトウェアで実装される場合、システム・メモリおよび/またはメモリ記憶デバイスにロードされ、そこから実行されればよい。また、計器制御および/またはデータ処理アプリケーションの全てまたは一部は、メモリ記憶デバイスのリード・オンリ・メモリまたは同様のデバイスに存在してもよく、このようなデバイスは、計器制御および/またはデータ処理アプリケーションが最初に入力-出力コントローラを介してロードされることを必要としない。尚、実行に有利であれば、計器制御および/またはデータ処理アプリケーション、あるいはその一部がプロセッサによってシステム・メモリ、またはキャッシュ・メモリ、あるいは双方に、既知の様式でロードされてもよいことは、関連技術の当業者には理解されよう。また、コンピュータは、システム・メモリに格納されている1つ以上のライブラリ・ファイル、実験データ・ファイル、およびインターネット・クライアントを含んでもよい。例えば、実験データは、検出信号値、あるいは1回以上のシーケンシング・バイ・シンセシス(SBS sequencing by synthesis)実験またはプロセスに関連する他の値のような、1回以上の実験またはアッセイに関係するデータを含むことができる。加えて、インターネット・クライアントが、ネットワークを使用して他のコンピュータ上にあるリモート・サービスにアクセスするために使用可能な(enabled)アプリケーションを含んでもよく、例えば、一般に「ウェブ・ブラウザ」と呼ばれるものを備えてもよい(comprise)。この例では、いくつかの一般に採用されるウェブ・ブラウザには、Microsoft Corporationから入手可能なMicrosoft Internet Explorer、Mozilla CorporationからのMozilla Firefox、Apple Computer Corp.からのSafari、Google CorporationからのGoogle Chrome、あるいは当技術分野において現在知られているあるいは今後開発されるその他のタイプのウェブ・ブラウザが含まれる。また、同じまたは他の実施形態において、インターネット・クライアントが、生物学的用途のためのデータ処理アプリケーションのような、ネットワークを通じて遠隔情報にアクセスするために使用可能な、特殊ソフトウェア・アプリケーションを含んでもよく、またはそのエレメントであることも可能である。
[00189] ネットワークは、当業者には周知の多くの種々のタイプのネットワークの1
つ以上を含むことができる。例えば、ネットワークは、TCP/IPプロトコル・スイートと一般に呼ばれるものを通信のために採用することがあるローカルまたはワイド・エリア・ネットワークを含むことができる。ネットワークは、一般にインターネットと呼ばれる、相互接続コンピュータ・ネットワークの世界規模のシステムを構成するネットワークを含んでもよく、または種々のイントラネット・アーキテクチャを含むこともできる。また、ネットワーク接続環境におけるユーザの中には、ハードウェアおよび/またはソフトウェア・システムとの間の情報トラフィックを制御するために、一般に「ファイアウォール」(ときとしてパケット・フィルタまたは境界保護デバイスと呼ばれることもある)と呼ばれるものを採用することを好む者がいることも、関連技術における当業者には認められよう。例えば、ファイアウォールは、ハードウェアまたはソフトウェア・エレメントあるいはそれらの何らかの組み合わせを含むこともでき、通例、例えば、ネットワーク・アドミニストレータ等のようなユーザによって導入されたセキュリティ・ポリシーを施行するように設計される。
[00190] 本開示の例示的な実施形態の以上の開示は、例示および説明の目的に限って
提示されたものである。これが網羅的であることも、開示した形態そのものに本開示を限定することも意図していない。本明細書において説明した実施形態の多くの変形や変更も、以上の開示を考慮すれば、当業者には明白であろう。本開示の範囲は、添付される請求項、およびそれらの均等物によってのみ定められるものとする。
[00191] 更に、本開示の代表的な実施形態を説明するにあたって、本明細書は本開示
の方法および/またはプロセスを、ステップの特定のシーケンスとして紹介したこともある。しかしながら、この方法またはプロセスが、本明細書において明記した特定のステップ順序には依存しないのであるからには、この方法またはプロセスは、説明したステップの特定のシーケンスには限定されなくて当然である。ステップの他のシーケンスも可能であってもよいことは当業者には認められよう。したがって、本明細書において明記したステップの特定の順序は、請求項に対する限定として解釈してはならず、加えて、本開示の方法および/またはプロセスを対象とする請求項は、記載された順序でのそれらのステップの実行に限定されなくて当然であり、これらのシーケンスは変化してもよく、それであっても本開示の主旨および範囲内に該当することに変わりはないことは、当業者には容易に認めることができよう。

Claims (20)

  1. 対象物体の同じ領域の複数のビューを同時に表示するためのシステムであって、
    プロセッサと、
    前記プロセッサに結合されたメモリであって、コンピュータ読み取り可能命令を格納するメモリと、
    を備え、前記コンピュータ読み取り可能命令は、前記プロセッサによって実行されると、前記システムに、
    前記対象物体の少なくとも一部分に対応する前記同じ領域の複数のビューを表す複数の前処理画像を受け取るステップであって、各々の前処理画像は、(i)画像ビュー・モード、および(ii)グローバル標準基準画像フレーム(GSRF)に関する前処理画像を記述するメタデータ、に関連付けられる、ステップと、
    前記複数の前処理画像の同時表示を可能とする前記グローバル標準基準画像フレームに関する表示画像テンプレートを決定するステップと、
    一組の表示可能画像を生成するステップであって、前記一組の表示可能画像のうちの各表示可能画像は、前記表示画像テンプレートに基づいて、前処理画像の画素位置を前記表示可能画像の対応する画素位置にマッピングするように生成される、ステップと、
    前記一組の表示可能画像を表示画面上におけるビューのための表示パターンに配列するステップと、
    前記配列された一組の表示可能画像を前記表示画面上に表示させるステップと、
    を含む動作を実行させる、システム。
  2. 前記表示画像テンプレートは、前記複数の前処理画像のうちの1つの前処理画像における画素の位置を示す基準画像フレームであり、各前処理画像の前記メタデータは、前処理画像のローカル基準画像フレーム(PI-LRF)を含む、請求項1に記載のシステム。
  3. 前記GSRFは、各前処理画像のローカル基準フレームと前記グローバル標準基準画像フレームとの間のアフィン・マッピングを定めることによって、前記複数の前処理画像のうちの2つ以上の前処理画像間の空間的関係を示す固定基準画像フレームであり、前記メタデータは、前記PI-LRFと前記GSRFとの間の第1のアフィン・マッピングを更に含む、請求項2に記載のシステム。
  4. 前記動作は、更に、
    前記配列された一組の表示可能画像のうちの1つの表示可能画像を操作するためのユーザ動作を受け取るステップと、
    前記配列された一組の表示可能画像のうちの他の全ての表示可能画像を、前記ユーザ動作に基づいて前記表示可能画像と調和するように操作するステップと、
    を含む、請求項3に記載のシステム。
  5. 前記表示画像テンプレートを決定するステップは、
    表示画像画素格子を作成するステップと、
    前記表示画像画素格子に関連する画素位置を示す表示画像ローカル基準フレーム(DI-LRF)を構築するステップであって、前記DI-LRFは、前記表示画像テンプレートに対応する、ステップと、
    前記GSRFを参照して前記DI-LRFに関する位置、方位、および倍率を決定するステップと、
    前記DI-LRFの画素位置を前記GSRFの画素位置にマッピングするアフィン変換を計算するステップと、
    前記計算されたアフィン変換に基づいて前記表示画像テンプレートのアフィン部分マッピングを生成するステップと、
    を含む、請求項3に記載のシステム。
  6. 前記一組の表示可能画像を生成するステップは、更に、
    前記表示画像テンプレートおよび前記表示画像テンプレートの前記アフィン部分マッピングのコピーを構築するステップと、
    前記アフィン部分マッピングを前記前処理画像の第1アフィン・マッピングと共に処理して複合マッピングを生成するステップであって、前記複合マッピングは、前記表示可能画像の前記対応する画素位置に対する、前記前処理画像の前記画素位置を示す、ステップと、
    前記一組の表示可能画像のうちの1つの表示可能画像を生成するステップであって、前記表示可能画像は、一組の画素を含み、前記表示可能画像は、
    一組の画像画素のうちの画像画素毎に、
    前記複合マッピングを用いて、前記画像画素の位置を前記前処理画像における画素の対応する位置へマッピングするステップと、
    前記対応する位置に基づいて前記前処理画像における近隣画素の画素値を推定するステップと、
    前記近隣画素の前記推定された画素値を前記画像画素の画素値として指定するステップと、
    を含む動作に基づいて生成される、ステップと、
    を含む、請求項5に記載のシステム。
  7. 前記対象物体は、生体組織標本である、請求項3に記載のシステム。
  8. 前記一組の表示可能画像を生成するステップは、更に、前記複数の前処理画像の各前処理画像に対して非線形補正を行うステップを含む、請求項3に記載のシステム。
  9. 前記動作は、更に、(i)前記表示可能画像上における前記ユーザ動作に応答して、前記表示画面上で調和して前記一組の表示可能画像の倍率レベルを増加させるステップ、(ii)前記表示可能画像上における前記ユーザ動作に応答して、前記表示画面上で調和して前記一組の表示可能画像を移動させるステップ、(iii)前記表示可能画像上における前記ユーザ動作に応答して、前記表示画面上で調和して前記一組の表示可能画像を回転するステップ、または(iv)それらの組み合わせ、を含む、請求項4に記載のシステム。
  10. 命令を格納した非一時的コンピュータ読み取り可能媒体であって、前記命令は、対象物体の同じ領域の複数のビューを同時に表示するためのシステムの1または複数のプロセッサによって実行されると、前記システムに、
    前記対象物体の少なくとも一部分に対応する前記同じ領域の複数のビューを表す複数の前処理画像を受け取るステップであって、各々の前処理画像は、(i)画像ビュー・モード、および(ii)グローバル標準基準画像フレーム(GSRF)に関する前処理画像を記述するメタデータ、に関連付けられる、ステップと、
    前記複数の前処理画像の同時表示を可能とする前記グローバル標準基準画像フレームに関する表示画像テンプレートを決定するステップと、
    一組の表示可能画像を生成するステップであって、前記一組の表示可能画像のうちの各表示可能画像は、前記表示画像テンプレートに基づいて、前処理画像の画素位置を前記表示可能画像の対応する画素位置にマッピングするように生成される、ステップと、
    前記一組の表示可能画像を表示画面上におけるビューのための表示パターンに配列するステップと、
    前記配列された一組の表示可能画像を前記表示画面上に表示させるステップと、
    を含む方法を実行させる、非一時的コンピュータ読み取り可能媒体。
  11. 前記表示画像テンプレートは、前記複数の前処理画像のうちの1つの前処理画像における画素の位置を示す基準画像フレームであり、各前処理画像の前記メタデータは、前処理画像のローカル基準画像フレーム(PI-LRF)を含む、請求項10に記載の非一時的コンピュータ読み取り可能媒体。
  12. 前記GSRFは、各前処理画像のローカル基準フレームと前記グローバル標準基準画像フレームとの間のアフィン・マッピングを定めることによって、前記複数の前処理画像のうちの2つ以上の前処理画像間の空間的関係を示す固定基準画像フレームであり、前記メタデータは、前記PI-LRFと前記GSRFとの間の第1のアフィン・マッピングを更に含む、請求項11に記載の非一時的コンピュータ読み取り可能媒体。
  13. 前記表示画像テンプレートを決定するステップは、
    表示画像画素格子を作成するステップと、
    前記表示画像画素格子に関連する画素位置を示す表示画像ローカル基準フレーム(DI-LRF)を構築するステップであって、前記DI-LRFは、前記表示画像テンプレートに対応する、ステップと、
    前記GSRFを参照して前記DI-LRFに関する位置、方位、および倍率を決定するステップと、
    前記DI-LRFの画素位置を前記GSRFの画素位置にマッピングするアフィン変換を計算するステップと、
    前記計算されたアフィン変換に基づいて前記表示画像テンプレートのアフィン部分マッピングを生成するステップと、
    を含む、請求項12に記載の非一時的コンピュータ読み取り可能媒体。
  14. 前記一組の表示可能画像を生成するステップは、更に、
    前記表示画像テンプレートおよび前記表示画像テンプレートの前記アフィン部分マッピングのコピーを構築するステップと、
    前記アフィン部分マッピングを前記前処理画像の第1アフィン・マッピングと共に処理して複合マッピングを生成するステップであって、前記複合マッピングは、前記表示可能画像の前記対応する画素位置に対する、前記前処理画像の前記画素位置を示す、ステップと、
    前記一組の表示可能画像のうちの1つの表示可能画像を生成するステップであって、前記表示可能画像は、一組の画素を含み、前記表示可能画像は、
    一組の画像画素のうちの画像画素毎に、
    前記複合マッピングを用いて、前記画像画素の位置を前記前処理画像における画素の対応する位置へマッピングするステップと、
    前記対応する位置に基づいて前記前処理画像における近隣画素の画素値を推定するステップと、
    前記近隣画素の前記推定された画素値を前記画像画素の画素値として指定するステップと、
    を含む動作に基づいて生成される、ステップと、
    を含む、請求項13に記載の非一時的コンピュータ読み取り可能媒体。
  15. 前記対象物体は、生体組織標本である、請求項12に記載の非一時的コンピュータ読み取り可能媒体。
  16. コンピュータ実装方法であって、
    対象物体の少なくとも一部分に対応する同じ領域の複数のビューを表す複数の前処理画像を受け取るステップであって、各々の前処理画像は、(i)画像ビュー・モード、および(ii)グローバル標準基準画像フレーム(GSRF)に関する前処理画像を記述するメタデータ、に関連付けられる、ステップと、
    前記複数の前処理画像の同時表示を可能とする前記グローバル標準基準画像フレームに関する表示画像テンプレートを決定するステップと、
    一組の表示可能画像を生成するステップであって、前記一組の表示可能画像のうちの各表示可能画像は、前記表示画像テンプレートに基づいて、前処理画像の画素位置を前記表示可能画像の対応する画素位置にマッピングするように生成される、ステップと、
    前記一組の表示可能画像を表示画面上におけるビューのための表示パターンに配列するステップと、
    前記配列された一組の表示可能画像を前記表示画面上に表示させるステップと、
    を含む、コンピュータ実装方法。
  17. 前記表示画像テンプレートは、前記複数の前処理画像のうちの1つの前処理画像における画素の位置を示す基準画像フレームであり、各前処理画像の前記メタデータは、前処理画像のローカル基準画像フレーム(PI-LRF)を含み、前記対象物体は、生体組織標本である、請求項16に記載のコンピュータ実装方法。
  18. 前記GSRFは、各前処理画像のローカル基準フレームと前記グローバル標準基準画像フレームとの間のアフィン・マッピングを定めることによって、前記複数の前処理画像のうちの2つ以上の前処理画像間の空間的関係を示す固定基準画像フレームであり、前記メタデータは、前記PI-LRFと前記GSRFとの間の第1のアフィン・マッピングを更に含む、請求項17に記載のコンピュータ実装方法。
  19. 前記表示画像テンプレートを決定するステップは、
    表示画像画素格子を作成するステップと、
    前記表示画像画素格子に関連する画素位置を示す表示画像ローカル基準フレーム(DI-LRF)を構築するステップであって、前記DI-LRFは、前記表示画像テンプレートに対応する、ステップと、
    前記GSRFを参照して前記DI-LRFに関する位置、方位、および倍率を決定するステップと、
    前記DI-LRFの画素位置を前記GSRFの画素位置にマッピングするアフィン変換を計算するステップと、
    前記計算されたアフィン変換に基づいて前記表示画像テンプレートのアフィン部分マッピングを生成するステップと、
    を含む、請求項18に記載のコンピュータ実装方法。
  20. 前記一組の表示可能画像を生成するステップは、更に、
    前記表示画像テンプレートおよび前記表示画像テンプレートの前記アフィン部分マッピングのコピーを構築するステップと、
    前記アフィン部分マッピングを前記前処理画像の第1アフィン・マッピングと共に処理して複合マッピングを生成するステップであって、前記複合マッピングは、前記表示可能画像の前記対応する画素位置に対する、前記前処理画像の前記画素位置を示す、ステップと、
    前記一組の表示可能画像のうちの1つの表示可能画像を生成するステップであって、前記表示可能画像は、一組の画素を含み、前記表示可能画像は、
    一組の画像画素のうちの画像画素毎に、
    前記複合マッピングを用いて、前記画像画素の位置を前記前処理画像における画素の対応する位置へマッピングするステップと、
    前記対応する位置に基づいて前記前処理画像における近隣画素の画素値を推定するステップと、
    前記近隣画素の前記推定された画素値を前記画像画素の画素値として指定するステップと、
    を含む動作に基づいて生成される、ステップと、
    を含む、請求項19に記載のコンピュータ実装方法。
JP2021001982A 2015-09-02 2021-01-08 生体試料の複数の画像を表示するための画像処理システムおよび方法 Active JP7153095B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562213487P 2015-09-02 2015-09-02
US62/213,487 2015-09-02

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018511146A Division JP6823646B2 (ja) 2015-09-02 2016-08-25 生体試料の複数の画像を表示するための画像処理システムおよび方法

Publications (2)

Publication Number Publication Date
JP2021073566A JP2021073566A (ja) 2021-05-13
JP7153095B2 true JP7153095B2 (ja) 2022-10-13

Family

ID=56801550

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018511146A Active JP6823646B2 (ja) 2015-09-02 2016-08-25 生体試料の複数の画像を表示するための画像処理システムおよび方法
JP2021001982A Active JP7153095B2 (ja) 2015-09-02 2021-01-08 生体試料の複数の画像を表示するための画像処理システムおよび方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018511146A Active JP6823646B2 (ja) 2015-09-02 2016-08-25 生体試料の複数の画像を表示するための画像処理システムおよび方法

Country Status (7)

Country Link
US (2) US10552960B2 (ja)
EP (2) EP4220564A3 (ja)
JP (2) JP6823646B2 (ja)
CN (2) CN114972548A (ja)
AU (1) AU2016314704A1 (ja)
CA (1) CA2995748A1 (ja)
WO (1) WO2017036921A1 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4220564A3 (en) 2015-09-02 2023-08-30 Ventana Medical Systems, Inc. Image processing systems and methods for displaying multiple images of a biological specimen
JP2017099616A (ja) * 2015-12-01 2017-06-08 ソニー株式会社 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム
US10146908B2 (en) * 2016-01-07 2018-12-04 General Electric Company Method and system for enhanced visualization and navigation of three dimensional and four dimensional medical images
CN109073454B (zh) 2016-04-20 2021-12-21 徕卡生物系统成像股份有限公司 数字病理学色彩校准和验证
JP6670222B2 (ja) * 2016-11-01 2020-03-18 株式会社日立ハイテク 画像診断支援装置及びシステム、画像診断支援方法
US10663711B2 (en) 2017-01-04 2020-05-26 Corista, LLC Virtual slide stage (VSS) method for viewing whole slide images
WO2019013960A1 (en) 2017-07-11 2019-01-17 Siemens Healthcare Diagnostics Inc. METHODS AND SYSTEMS FOR LEARNING BASED IMAGE EDGE IMPROVEMENT FOR HIGHER SAMPLE TUBE CIRCLES
CN110321908A (zh) * 2018-03-29 2019-10-11 华为技术有限公司 图像识别方法、终端设备及计算机可读存储介质
US11030758B2 (en) * 2018-05-18 2021-06-08 Strateos, Inc. Method and apparatus for registering images of histological sections
US10943346B2 (en) * 2018-05-21 2021-03-09 Corista, LLC Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning
JP7083037B2 (ja) * 2018-09-20 2022-06-09 富士フイルム株式会社 学習装置及び学習方法
US11756203B2 (en) 2018-09-21 2023-09-12 The Johns Hopkins University Characterization platform for scalable, spatially-resolved multispectral analysis of tissue
US11574476B2 (en) * 2018-11-11 2023-02-07 Netspark Ltd. On-line video filtering
IL311148B1 (en) 2018-11-11 2024-07-01 Netspark Ltd Online video filtering
US10818386B2 (en) * 2018-11-21 2020-10-27 Enlitic, Inc. Multi-label heat map generating system
US11803963B2 (en) 2019-02-01 2023-10-31 Sartorius Bioanalytical Instruments, Inc. Computational model for analyzing images of a biological specimen
US10885631B2 (en) * 2019-02-01 2021-01-05 Essen Instruments, Inc. Label-free cell segmentation using phase contrast and brightfield imaging
EP3695788B1 (en) * 2019-02-15 2023-08-16 IMEC vzw Improved ultrasound imaging of vasculature
CN109858472B (zh) * 2019-04-09 2023-08-04 武汉领普科技有限公司 一种嵌入式实时人形检测方法和装置
KR20220064346A (ko) * 2019-04-23 2022-05-18 로레알 컨볼루션 신경망 기반 랜드마크 추적기
WO2020227710A1 (en) * 2019-05-09 2020-11-12 H. Lee Moffitt Cancer Center And Research Institute, Inc. Systems and methods for slide image alignment
JPWO2020262117A1 (ja) * 2019-06-28 2020-12-30
CN111242242B (zh) * 2020-02-27 2022-04-12 武汉大学 一种基于置信度选择的宫颈组织病理全玻片图像自动分类方法
GB202006144D0 (en) * 2020-04-27 2020-06-10 Univ Oxford Innovation Ltd Method of diagnosing a biological entity, and diagnostic device
JP7463938B2 (ja) * 2020-10-14 2024-04-09 株式会社島津製作所 X線撮影システムおよび異物確認方法
JP7432182B2 (ja) * 2020-10-18 2024-02-16 エイアイエックスメド・インコーポレイテッド 細胞病理検査における細胞診画像を取得する方法およびシステム
CN112860810B (zh) * 2021-02-05 2023-07-14 中国互联网络信息中心 域名多重图嵌入表示方法、装置、电子设备及介质
JP2023098287A (ja) * 2021-12-28 2023-07-10 株式会社Screenホールディングス 画像表示方法、コンピュータープログラムおよび記録媒体
USD1018585S1 (en) * 2022-03-15 2024-03-19 Exo Imaging, Inc. Computer display panel with graphical user interface

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014089499A1 (en) 2012-12-06 2014-06-12 Clarient Diagnostic Services, Inc. Selection and display of biomarker expressions
WO2014150274A1 (en) 2013-03-15 2014-09-25 Hologic, Inc. System and method for reviewing and analyzing cytological specimens

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6402707B1 (en) * 2000-06-28 2002-06-11 Denupp Corporation Bvi Method and system for real time intra-orally acquiring and registering three-dimensional measurements and images of intra-oral objects and features
US20030210262A1 (en) 2002-05-10 2003-11-13 Tripath Imaging, Inc. Video microscopy system and multi-view virtual slide viewer capable of simultaneously acquiring and displaying various digital views of an area of interest located on a microscopic slide
US8280483B2 (en) * 2006-06-14 2012-10-02 Koninklijke Philips Electronics N.V. Multi-modality medical image viewing
US8131476B2 (en) * 2006-08-07 2012-03-06 General Electric Company System and method for co-registering multi-channel images of a tissue micro array
US8031924B2 (en) * 2007-11-30 2011-10-04 General Electric Company Methods and systems for removing autofluorescence from images
US8369600B2 (en) * 2008-03-25 2013-02-05 General Electric Company Method and apparatus for detecting irregularities in tissue microarrays
US8824769B2 (en) * 2009-10-16 2014-09-02 General Electric Company Process and system for analyzing the expression of biomarkers in a cell
US8564623B2 (en) * 2009-12-11 2013-10-22 Molecular Devices, Llc Integrated data visualization for multi-dimensional microscopy
EP2617026A4 (en) * 2010-09-16 2015-03-11 Omnyx LLC DIGITAL IMAGE PROCESSING OF PATHOLOGY
US9076198B2 (en) * 2010-09-30 2015-07-07 Nec Corporation Information processing apparatus, information processing system, information processing method, program and recording medium
EP3800495A1 (en) * 2011-01-18 2021-04-07 Roche Diagnostics Hematology, Inc. Microscope slide coordinate system registration
US8970618B2 (en) 2011-06-16 2015-03-03 University Of Leeds Virtual microscopy
JP6035716B2 (ja) * 2011-08-26 2016-11-30 ソニー株式会社 情報処理システム及び情報処理方法
US10105115B2 (en) * 2011-11-25 2018-10-23 Mirada Medical Limited Method and system for processing medical image datasets
US8605972B2 (en) * 2012-03-02 2013-12-10 Sony Corporation Automatic image alignment
US8755633B2 (en) * 2012-03-14 2014-06-17 Sony Corporation Automated synchronized navigation system for digital pathology imaging
US9036888B2 (en) * 2012-04-30 2015-05-19 General Electric Company Systems and methods for performing quality review scoring of biomarkers and image analysis methods for biological tissue
US9836865B2 (en) * 2012-12-06 2017-12-05 Ge Healthcare Biosciences Corp. Systems and methods for split screen display of biological specimen and for capturing records thereof
US9576049B2 (en) * 2012-12-21 2017-02-21 Microsoft Technology Licensing, Llc Semantic searching using zoom operations
EP2759921B1 (en) * 2013-01-25 2020-09-23 Morpho, Inc. Image display apparatus, image displaying method and program
CA2909913C (en) 2013-06-03 2019-04-16 Ventana Medical Systems, Inc. Image adaptive physiologically plausible color separation
EP4220564A3 (en) 2015-09-02 2023-08-30 Ventana Medical Systems, Inc. Image processing systems and methods for displaying multiple images of a biological specimen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014089499A1 (en) 2012-12-06 2014-06-12 Clarient Diagnostic Services, Inc. Selection and display of biomarker expressions
WO2014150274A1 (en) 2013-03-15 2014-09-25 Hologic, Inc. System and method for reviewing and analyzing cytological specimens

Also Published As

Publication number Publication date
CN114972548A (zh) 2022-08-30
JP6823646B2 (ja) 2021-02-03
CN108140249B (zh) 2022-04-19
EP4220564A2 (en) 2023-08-02
CA2995748A1 (en) 2017-03-09
AU2016314704A1 (en) 2018-02-22
US10552960B2 (en) 2020-02-04
US20200143542A1 (en) 2020-05-07
WO2017036921A1 (en) 2017-03-09
EP3345161B1 (en) 2023-01-25
US20180322632A1 (en) 2018-11-08
EP4220564A3 (en) 2023-08-30
EP3345161A1 (en) 2018-07-11
JP2018533116A (ja) 2018-11-08
CN108140249A (zh) 2018-06-08
US11164316B2 (en) 2021-11-02
JP2021073566A (ja) 2021-05-13

Similar Documents

Publication Publication Date Title
JP7153095B2 (ja) 生体試料の複数の画像を表示するための画像処理システムおよび方法
US10275880B2 (en) Image processing method and system for analyzing a multi-channel image obtained from a biological tissue sample being stained by multiple stains
US12094182B2 (en) Neural network based identification of areas of interest in digital pathology images
US11893732B2 (en) Computer supported review of tumors in histology images and post operative tumor margin assessment
US10650221B2 (en) Systems and methods for comprehensive multi-assay tissue analysis
JP2022534156A (ja) デジタルパソロジーのための人工知能処理システムおよび自動化された事前診断ワークフロー
JP2017516992A (ja) 画像内の生物学的構造及び/又はパターンの検出のためのシステム及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220930

R150 Certificate of patent or registration of utility model

Ref document number: 7153095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150