JP7153095B2 - 生体試料の複数の画像を表示するための画像処理システムおよび方法 - Google Patents
生体試料の複数の画像を表示するための画像処理システムおよび方法 Download PDFInfo
- Publication number
- JP7153095B2 JP7153095B2 JP2021001982A JP2021001982A JP7153095B2 JP 7153095 B2 JP7153095 B2 JP 7153095B2 JP 2021001982 A JP2021001982 A JP 2021001982A JP 2021001982 A JP2021001982 A JP 2021001982A JP 7153095 B2 JP7153095 B2 JP 7153095B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- displayable
- preprocessed
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 83
- 238000012545 processing Methods 0.000 title claims description 39
- 239000012472 biological sample Substances 0.000 title description 15
- 238000013507 mapping Methods 0.000 claims description 55
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 39
- 230000009466 transformation Effects 0.000 claims description 34
- 230000009471 action Effects 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 14
- 239000002131 composite material Substances 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 3
- 210000001519 tissue Anatomy 0.000 description 107
- 239000003550 marker Substances 0.000 description 86
- 230000008569 process Effects 0.000 description 27
- 239000000975 dye Substances 0.000 description 26
- 238000004458 analytical method Methods 0.000 description 25
- 210000004027 cell Anatomy 0.000 description 22
- 238000001914 filtration Methods 0.000 description 20
- 238000010186 staining Methods 0.000 description 19
- 238000000926 separation method Methods 0.000 description 18
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 15
- 239000000523 sample Substances 0.000 description 15
- 238000001574 biopsy Methods 0.000 description 13
- 238000003556 assay Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 210000002865 immune cell Anatomy 0.000 description 11
- 206010028980 Neoplasm Diseases 0.000 description 10
- 238000003745 diagnosis Methods 0.000 description 10
- 238000000844 transformation Methods 0.000 description 9
- 239000003086 colorant Substances 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 230000005055 memory storage Effects 0.000 description 8
- 241000699666 Mus <mouse, genus> Species 0.000 description 7
- 230000000877 morphologic effect Effects 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 7
- 238000013519 translation Methods 0.000 description 7
- 230000014616 translation Effects 0.000 description 7
- 239000000090 biomarker Substances 0.000 description 6
- 238000010191 image analysis Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000012800 visualization Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000009545 invasion Effects 0.000 description 5
- 230000007170 pathology Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 230000001131 transforming effect Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 239000002096 quantum dot Substances 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 description 3
- 239000002771 cell marker Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000008595 infiltration Effects 0.000 description 3
- 238000001764 infiltration Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 102000004169 proteins and genes Human genes 0.000 description 3
- 108090000623 proteins and genes Proteins 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- WZUVPPKBWHMQCE-UHFFFAOYSA-N Haematoxylin Chemical compound C12=CC(O)=C(O)C=C2CC2(O)C1C1=CC=C(O)C(O)=C1OC2 WZUVPPKBWHMQCE-UHFFFAOYSA-N 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000000799 fluorescence microscopy Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- -1 tissue sections Substances 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- FWBHETKCLVMNFS-UHFFFAOYSA-N 4',6-Diamino-2-phenylindol Chemical compound C1=CC(C(=N)N)=CC=C1C1=CC2=CC=C(C(N)=N)C=C2N1 FWBHETKCLVMNFS-UHFFFAOYSA-N 0.000 description 1
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 206010009944 Colon cancer Diseases 0.000 description 1
- 208000001333 Colorectal Neoplasms Diseases 0.000 description 1
- 206010010071 Coma Diseases 0.000 description 1
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010060862 Prostate cancer Diseases 0.000 description 1
- 208000000236 Prostatic Neoplasms Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000004113 cell culture Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 208000030499 combat disease Diseases 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000007850 fluorescent dye Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000001900 immune effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 201000005202 lung cancer Diseases 0.000 description 1
- 208000020816 lung neoplasm Diseases 0.000 description 1
- 210000004698 lymphocyte Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007837 multiplex assay Methods 0.000 description 1
- 239000002547 new drug Substances 0.000 description 1
- 102000039446 nucleic acids Human genes 0.000 description 1
- 108020004707 nucleic acids Proteins 0.000 description 1
- 150000007523 nucleic acids Chemical class 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 210000002307 prostate Anatomy 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000009870 specific binding Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/005—Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16B—BIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
- G16B40/00—ICT specially adapted for biostatistics; ICT specially adapted for bioinformatics-related machine learning or data mining, e.g. knowledge discovery or pattern finding
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16B—BIOINFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR GENETIC OR PROTEIN-RELATED DATA PROCESSING IN COMPUTATIONAL MOLECULAR BIOLOGY
- G16B45/00—ICT specially adapted for bioinformatics-related data visualisation, e.g. displaying of maps or networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Quality & Reliability (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biotechnology (AREA)
- Evolutionary Biology (AREA)
- Bioethics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Primary Health Care (AREA)
- Biophysics (AREA)
- Image Processing (AREA)
- Microscoopes, Condenser (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Description
て既に走査/ディジタル化されているスライドを見直すまたはスライドの画像を読み取ることによって、手作業で代表的な視野(FOV)または対象領域(ROI)を顕微鏡の下で選択する。組織スライドが走査されるとき、走査された画像は独立した読み手によって目視され、読み手の個人的好みに基づいてFOVに手作業マークされる。FOVを選択した後、コンピュータは、各FOVにおいて自動アルゴリズムによって免疫細胞の数量(counts)を生成するか、または病理学者/読み手が、選択されたFOV内において手作業で免疫細胞の個数を数える。異なる読み手が異なるFOVを選択して数える可能性があるので、手作業でのFOVの選択および計数は、非常に主観的であり、読み手よって偏りが生ずる。したがって、湿潤度の研究はもはや再現可能ではない。視野の選択を自動化することによって、均一な方法を適用し、個々の読み手の主観性を低減する。更に、FOV選択を実行するために低解像度の画像を使用することによって、計算効率が向上し、分析者が素早く組織領域の分析に進むことが可能になる。
含む。これは、大まかには、互いに隣接する顕微鏡スライドの同じ領域の少なくとも2つのビューを表示し、これらのビューは異なる照明条件を提供し(offer)、目視デバイスは
同様の直線的平行移動を提供する。
目視画面上において互いに隣接する同じ領域の少なくとも2つの顕微鏡スライド画像を異なる倍率で表示することを教示する。
理学のためにヒトまたは動物の身体から得られた外科生検試料(surgical biopsy specimen)のような、組織領域から得られた任意の生体標本(biological sample)である。組織標本は、平伏組織標本、胸部組織標本、結腸組織標本、あるいは他の臓器または身体領域から得られた組織標本であってもよい。
する場合、核構造および組織構造のような異なる生体構造が特定の蛍光色素によって同時に染色される生体組織標本から得られたディジタル画像を包含する。蛍光色素の各々は、異なるスペクトル帯域において蛍光し、つまり、マルチチャネル画像のチャネルの内1つを構成する。生体組織標本は、複数の染料によって、および/または1つの染料および1つの対比染料によって染色されてもよく、後者を「単一マーカ画像」とも呼ぶ。
チャネル画像の1つのチャネルについて得られる中間値またはスカラー画像を含む。マルチチャネル画像を分離することによって、チャネル毎に1つの分離画像が得られる。
、画像センサのチャネルである。例えば、画像センサは、赤(R)、緑(G)、および青(B)のような、3つのカラー・チャネルを有することができる。
[0016] 「閾値設定」(thresholding)とは、本明細書において解釈する場合、既定の閾値の適用、または並び替えリストを提供するための極大値の並び替え、および並び替えリストの上位からの所定数の極大値の選択を包含する。
て解釈する場合、画素が部分画像エリア内における最大値に等しい場合、これを極大値と見なすフィルタリング処理を包含する。極大値フィルタリングは、いわゆるマックス・フィルタ(max filter)を適用することによって実現することができる(Digital Image Processing(ディジタル画像処理), Third Edition, Rafael C. Gonzalez, Richard E. Woods, page 326, chapter 5を参照のこと)。
所定のサイズ、および矩形または円形のような形状を有する画像部分を包含する。
[0020] 本発明の実施形態によれば、癌生検組織標本の組織領域を近隣組織スライスにスライスする。これらの組織スライスは、それぞれの生物学的特徴の識別のために、1つまたは複数の染料によってマークすることができる。RGB画像センサのような、多数のカラー・チャネルを有する画像センサによって、マークした組織スライスの各々からディジタル画像を取得する(acquire)。
換を利用することができる。
ル画像に関しても一致させる(register)必要はない。何故なら、これらは全て、組織スライスの1つから光センサによって取得された同一のデータ集合に基づくからである。マルチチャネル画像は、1組の分離画像を除いて、複数の画像に関して画像レジストレーション・アルゴリズムを実行するための基準画像として選択される。これによって、分離画像を除いて、複数の画像の各々の基準画像に対するマッピングが得られる。
[0035] 本発明は、1つの目視画面上に互いに隣接して示される同じ組織領域の複数の診断画像の一斉検討(coordinated review)を可能にするという驚異的な効果がある。全ての画像は、共通基準フレームに対して位置合わせおよび拡縮調整され(scale)、これらを
全て一緒に平行移動(translate)および拡縮ズーミング(zoom)することができ、各々が組
織学の重要な側面を示す。これによって、1つの画像はいずれも、専門家の読み手からの不確実性が高い(more tentative)結論を支持するだけかもしれないが、重要な条件の確定診断を目的を絞って行うことを可能にする。
[0037] 1.画像ビジュアライゼーション(image visualization)のために、共通の表
示基準フレームを選択し使用する。
[0039] 3.共通表示基準フレームを動的に変更するために、ユーザ・ジェスチャを受け入れる。例えば、画像を同時に平行移動させる、回転させる、倍率を高めることができる。
[0043] 一実施形態では、本開示は、生体組織標本の同じ領域の複数のビューを同時に表示するシステムを特徴とする。このシステムは、プロセッサと、このプロセッサに結合されたメモリとを含むのでもよい。メモリは、コンピュータ読み取り可能命令を格納することができ、このコンピュータ読み取り可能命令がプロセッサによって実行されると、このプロセッサに動作を実行させる。
面を片付ける動作、新たなモード画像を表示画面上に追加する動作、表示パターンを再構成して代替表示パターンを形成する動作、2つ以上の画像モードを積み重ねて画像の特徴を補強する(reinforce)する動作、および現在の試験の表示パターンを、今後の試験のた
めの保存テンプレートとして保存する動作も含んでもよい。
マッピングし、その画素値あるいは周囲のソース画素値の内挿補間をディスティネーション画素値として選択することによって、行われてもよい。このように、同時表示のための準備において、任意の画像を、全ての他の画像によって共有される新たな基準フレームに平行移動、回転、伸長、または短縮することができる。
の読み手の最良の判断に基づけばよい。あるビューは差し当たっては(for the case at hand)重要でないと見なされるかもしれないが、他のビューは診断にとって一層重要であるとして集合体に追加される場合もある。
の分析を実行するために使用することができることが確保され、一方フィルタリング処理、即ち、ステップb、c、およびdは、単に、完全な分析が実行されるべき関連視野の識別に役立つに過ぎない。
から生成することができる。
[0054] セグメント化によって、非組織領域を除去するマスクが得られる。結果的に得られた組織マスクは、空間ロー・パス・フィルタリングまたは極大値フィルタリングあるいは閾値設定処理の前または後、および視野が画定される前または後に、分離画像に適用することができる。空間ロー・パス・フィルタリングの実行の前というように、組織マスクを早い段階で適用することは、処理負荷を更に低減するために有利な場合がある。
学的構造を識別する共配染色(co-located stains)に対して1つの視野が得られるように
、共配する(co-located)ことができる染色には特に有利である。このような視野を併合することにより、処理負荷は更に低減され、ステップfにおける分析は、併合された視野に対して1回だけ実行すれば済む。更に、2つの関係する結果ではなく、1つの分析結果だけが提示されるので、病理学者または生物学者にとって認知の負担も軽減される。実施態様によっては、2つの視野の空間重複度が重複閾値よりも高い場合に併合するのでもよい。
チチャネル画像に示される生体細胞の細胞計数(cell counting)によって実行される。細
胞計数は、適した画像分析技法を使用し、これを視野に適用することによって実行することができ、具体的には、画像分類技法によって細胞計数を実行することができる。
とによってというように、訓練済み畳み込みニューラル・ネットワークによって、視野または画像パッチ内における生体特徴の存在確率をそれぞれ判定するために実行される。画像パッチは、畳み込みニューラル・ネットワークへの入力のために、視野から抽出されてもよく、最初に視野内において対象物体(object of interest)を特定し、次いでこの対象物体を含む画像パッチを抽出する。
本発明の他の態様によれば、複数の染料によって染色された生体組織標本から得られたマルチチャネル画像を分析するための画像処理システムを提供する。このシステムは本発明の方法を実行するように構成される。
るためにも適用される。これらの動作は、双方とも線形演算子であるので、いずれの順序で適用されてもよい。
[0093] 本発明は、生体試料、例えば、組織標本の同じ領域の複数のビューを同時に表示するシステムおよび方法を特徴とする。ある実施形態では、このシステムは、プロセッサと、このプロセッサに結合されたメモリとを含むのでもよい。メモリは、コンピュータ読み取り可能命令を格納することができ、このコンピュータ読み取り可能命令がプロセッサによって実行されると、プロセッサに動作を実行させる。
[0099] 他の実施形態では、グローバル標準基準フレームは、画素位置の空間を記述するために使用される、承認済みの(agreed-upon)固定二次元基準フレームであり、各画像
のローカル基準フレーム(PI-LRF)とグローバル標準基準フレームとの間におけるアフィン・マッピングを定めることによって、異なる画像間における空間関係の理解を可能にする。ある実施形態では、各前処理画像のメタデータは、GSRFに関する前処理画像の空間位置、方位、および倍率を記述する。例えば、メタデータは、画像基準フレームとグローバル標準基準フレームとの間における第1アフィン・マッピングを定めることができる。
動作(2110)は、更に、二次元表示画像画素格子を作成する動作(2111)、表示画像画素格子における画素位置を記述するために使用される二次元表示画像ローカル基準フレーム(DI-LRF:two-dimensional display image local reference frame)を
構築する動作(2112)、GSRFに関するDI-LRFの位置、方位、および倍率を選択する動作(2113)、およびDI-LRFにおける画素位置をGSRFにおける位置にマッピングするアフィン変換を計算する動作(2114)を含んでもよい。格子の交差点は画素位置を示すことができる。この構造は、表示画像テンプレートとして役割を果たすことができ、表示画像の生成のためにアフィン部分マッピング(affine partial mapping)に供することもできる。
フレームに変換する動作(2120)は、更に、CDRF表示画像テンプレートおよびアフィン部分マッピングの作業用コピーを構築する動作(2121)、表示画像のDI-LRFにおける画素位置を、前処理画像のPI-LRFにおける位置に変換する複合マッピングを生成するために、アフィン部分マッピングを、前処理画像のための第1アフィン・マッピングと複合する(compose)動作(2122)、および表示画像画素毎に動作を実行
することによって表示画像をペイントする動作(2123)を含んでもよい。ある実施形態では、表示画像テンプレートの作業コピーは、表示画像に対する画素値を保持するメモリ・セルを含む。
理画像のPI-LRFにおける位置への複合アフィン変換によって、マッピングする動作(2124)、前処理画像において、そのマッピングされた位置周囲の近隣画素間で画素値を内挿補間する動作(2125)、および表示画像画素において表示画像に使用される画素値として、内挿補間した画素値を伝達する動作(2126)を含んでもよいが、これ
らに限定されるのではない。表示画像画素毎にこれらの動作を実行することによって、各前処理画像を、表示画面上における表現のために表示画像に変換することができる。
近い画素をその値に選択することによって、または4つの最も近い近隣画素間においてバイリニア内挿補間を使用することによって実行されてもよい。他の実施形態では、ソースおよびターゲット画像間で倍率を変更するとき、空間ロー・パス・フィルタリングのような、更に精巧な方法が、サンプル・エリアシングまたは撮像アーチファクトを回避するために必要となる場合もある。何故なら、これはサンプル率変換と同等であるからである。
的歪みを除去するために、複数の前処理画像に対して非線形補正を実行してもよい。例示的な非線形補正には、ピンクッション(pincushion)またはバレル歪み、焦点ぼけ、コマ、または非点収差の除去を含むことができる。
-LRF)および承認済み固定二次元基準フレーム(GSRF)のような、以上で述べたような二次元基準フレームの内任意のものは、直交デカルト基準フレームであることができる。他の実施形態では、ここで述べたような二次元基準フレームの内任意のものが、非直交および/または非デカルト基準フレームであることができる。
よって生成される。画像の前処理は、本明細書において説明するFOV方法のような方法を利用すればよい。しかしながら、画像を前処理するために他の適した方法を使用してもよいことは言うまでもない。
ターンは、「m」本の行および「n」本の列を特徴としてもよく、ここで「m」および「n」は任意の自然数とすることができる。例えば、表示パターンは2行および3列を有してもよい。他の実施形態では、表示パターンは環状または正方形であってもよい。更に他の実施形態では、表示パターンは角錐形でもよい。
の入力ジェスチャに応答して、表示画面上で複数の画像を調和して平行移動させる動作、インターフェース・デバイスからの入力ジェスチャに応答して表示画面上で複数の画像を調和して回転させる動作、およびインターフェース・デバイスからの入力ジェスチャに応答して表示画面上で複数の画像を調和して拡大ズーミングおよび縮小ズーミングする動作を含んでもよい。図17~図19に示すように、複数の画像を平行移動、回転、およびズーミングする動作は、撮像された生体組織標本の所望の視点を与えることができる。例えば、複数の画像の平行移動は、画像を線形方向に滑らせる(slide)ことを伴ってもよい。複数の画像の回転は、時計回り方向または反時計回り方向に行われてもよい。複数の画像の拡大ズームは、生体組織標本のある領域に接近したビューを提供することができる。複数の画像の縮小ズームは、生体組織標本の離れたビューを提供することができる。
において複数の画像から1つ以上の画像を除去して、表示画面を片付ける動作を含んでもよい。例えば、ある画像が生体組織標本の望ましくないビューまたは関係ないビューを示す場合、その画像を除去することもできる。他の実施形態では、前述の動作は、更に、新たなモード画像を表示画面上に追加する動作を含んでもよい。新たなモード画像は、他の画像モードと連携して目視されてもよい。
ャネル、画像フィルタ状態、またはエッジ検出状態を含むことができる。一般に、本来の画像には一定の特性を強調する有用な変更(alteration)があることもあり、専門家の読み手に関心を起こさせる重要な診断の特徴を含む同時ビューを提供することができる。
ターンを形成するために、表示パターンを再配列する動作を含んでもよい。代替表示パターンは、一層緊密な調査を行うために、複数の画像モードを結集することができる。他の実施形態では、図22に示すように、前述の動作は、更に、画像の特徴を補強するために2つ以上の画像モードを積み重ねる(stack)動作を含んでもよい。2つ以上の画像モードの積み重ねは、インターフェース・デバイスからの入力ジェスチャに応答して行うことができる。ある実施形態では、2つ以上の画像モードが半透明(translucent)であってもよい。
像の表示を容易にするために、現行の試験の表示パターンを保存テンプレートとして保存する動作を含んでもよい。
るように、画像の内1つだけにおいてアクションを呼び出すことによって、全ての画像に同時に作用させる(affect)ことができる。非限定的な例示的入力ジェスチャおよびインターフェース・デバイスには、マウス、触覚センサ、眼球センサ、および電子カメラを含むことができるが、これらに限定されるのではない。例えば、専門家の読み手がマウス・クリックを使用して画像の1つを有効化し、次いでマウス・ホイールを回転させて画像のズーム倍率に作用させるのでもよい。有効化された画像内におけるマウス・クリックおよびドラッグが、全ての画像を同じ方向にドラッグさせることができる。他の例として、選択した画像変更を実行するために、触覚センサが使用されてもよい。触覚センサは、回転、平行移動、ズーミング、積み重ね等を提供する(offer)ことができ、単純なコンピュータ・マウスよりも精巧であると言って差し支えない。
の動きのような、操作員の特殊なジェスチャを目撃することができる。特殊ジェスチャは、画像の平行移動、回転、倍率、表示再配列、画像の積み重ね、および積み重ねにおける透け(translucence)の制御等を示す。他の実施形態では、コンピュータのようなデバイスと対話処理する方法(manner)は、十分で有効であるのであればいずれでも、専門家の読み手の目標を達成するための最も簡単で最も直接的な対話処理に対する好みと併せて使用することができる。
検知用途または戦場管理のためのマルチスペクトル地表作像(imagery)の試験において使
用することもできる。
を実現する非限定的な例は、以下を特徴とすることができる。
[00117] 1.生体組織標本についてのデータをロードする。
[00119] 3.選択したファイルからの6枚の画像を、3列×2行の表示パターンで表
示する。
[00121] 5.画像サンプルのマーカに対してヒート・マップを表示する。
[00122] 6.本来のビュー、ヒート・マップ・ビュー、または個々のマーカ・ビュー
間における切り替え。
[00124] 8.同じ座標系に位置合わせさせる。
[00125] 9.画像の回転、平行移動、または拡大および縮小ズーム。
[00127] 11.撮像されたサンプルの領域に標識を割り当てる。
[00128] 12.画像の名称を変更する。
[00130] 14.ファイルを保存する。
[00131] 画像の前処理
[00132] ある実施形態では、本発明は、生体スライド画像の前処理システムおよび方
法を利用してもよい。尚、画像を前処理するためには、任意の適したシステムまたは方法を使用してもよいことは言うまでもない。一実施形態では、前処理システムまたは方法の非限定的な例は、ホール・スライド画像における各細胞マーカの密度に基づく自動視野(FOV)選択を特徴としてもよい。本明細書において説明する動作には、分離多重スライドからまたは単一染色スライドからの個々のマーカに対する画像を読み取り、個々のマーカ画像から組織領域マスクを計算する動作が含まれるが、これらに限定されるのではない。各マーカのヒート・マップは、個々のマーカ画像チャネル上でロー・パス・フィルタを適用することによって決定することができ、ヒート・マップから最も明暗度(intensity)が高い上位K箇所の領域をマーカ毎の候補FOVとして選択する。次いで、個々のマーカ画像からの候補FOVを一緒に併合することができる。この併合は、入力の優先順位または選択(choice)に基づいて、同じ座標系におけるFOVの全てを一緒に追加すること、または選択されたマーカ画像からのFOVのみを追加することの内一方または双方を含んでもよく、最初に個々のマーカ画像の全てを共通座標系に一致させ、形態学的処理によって併合する。続いて、高解像度の対応するFOV画像を得るために、逆レジストレーション(inverse registration)を使用して、識別されたFOVの全てを逆に本来の画像に移転させる。本発明をいずれの理論やメカニズムにも限定することを望むのではないが、本発明のシステムおよび方法は、再現可能である、人間の読み手に偏らない、そして効率が向上するというような利点を提供することができる。
像取得システム(102)と、プロセッサ(105)と、プロセッサに結合されたメモリ(110)とを含む。このメモリは、コンピュータ読み取り可能命令を格納するように構成され、このコンピュータ読み取り可能命令がプロセッサによって実行されると、以下の動作の内1つ以上の動作をプロセッサに実行させる(しかし、以下の動作に限定されるのではない)。これらの動作は、画像取得システム(102)から高解像度入力画像(231)を読み取る動作、高解像度入力画像の低解像度バージョンを計算する動作、画像取得システム(102)から複数の低解像度画像マーカ画像を読み取る動作であって、各画像マーカ画像が、低解像度入力画像の1つのカラー・チャネル(232)のものである、動作、低解像度入力画像に対応する組織領域マスク(233)を計算する動作、各画像マーカ画像(114)をロー・パス・フィルタリングした画像(234)を計算する動作、画像マーカ画像(113)毎にマスク・フィルタ画像(masked filtered image)を生成する動作であって、マスク・フィルタ画像が、低パス・フィルタリングした画像を乗算した組織領域マスクである、動作、各マスク・フィルタ画像(116)内において複数の候補視野(FOV)を識別する動作、画像マーカ画像(117)毎の複数の候補FOVの内部分集合を、複数の併合FOVに併合する動作、入力画像上で複数の候補視野の併合部分を描写する(depict)動作を含む。
ることができる。ある実施形態では、ヒート・マップは、マスク・フィルタ画像の着色を含み、低明暗度領域には青色が割り当てられ、明暗度が高くなるに連れて、黄色、橙色、および赤色が領域に割り当てられる。低および高明暗度領域に割り当てるには、任意の他のしかるべきカラーまたはカラーの組み合わせが使用されてもよい。
む(しかし、以下の動作に限定されるのではない)。低解像度入力画像(336)の輝度(337)を計算する動作、輝度画像(338)を生成する動作、標準偏差フィルタを輝度画像(339)に適用する動作、フィルタリングした輝度画像(340)を生成する動作、および所与の閾値よりも高い輝度を有する画素が1に設定され、この閾値よりも低い画素が0に設定されるように、フィルタリングした輝度画像(341)に閾値を適用する動作、組織領域マスク(342)を生成する動作。
る。この場合、組織領域マスクが、フィルタリングした画像マーカ画像への適用前に、解像度がもっと低い画像に変換されてもよい。
ことによって得られ、分離モジュールは、基準カラー・マトリクス(112)を使用して、どのカラーが個々のカラー・チャネルに対応するか判定する。他の実施形態では、画像マーカ画像は単一染色スライド(single stain slide)から得られる。
役割を果たすために1つの画像マーカ画像を選択する動作と、各画像マーカの基準画像の座標フレームへの変換を計算する動作とを含む。各画像の基準画像への変換を計算する方法は、当業者には周知である。他の実施形態では、多重基準スライドを分離することによって画像が得られる場合、分離画像の全ては既に同じ座標系にあるので、レジストレーションは不要となる。
施形態では、FOV選択は、ホール・スライド画像における各細胞マーカの密度に基づく。ここで説明する動作は、分離多重スライドからまたは単一染色スライドからの個々のマーカに対して画像を読み取る動作と、個々のマーカ画像から組織領域マスクを計算する動作とを含む。各マーカのマスク・フィルタ画像(masked filtered image)は、個々のマーカ画像チャネルにロー・パス・フィルタを適用し、組織領域マスクを適用することによって決定されてもよい。マスク・フィルタ画像から明暗度が最も高い上位K箇所の領域を、マーカ毎の候補FOVとして選択する。個々のマーカ画像からの候補FOVを一緒に併合する。この併合は、入力の優先順位または選択に基づいて、同じ座標系におけるFOVの全てを一緒に追加すること、または選択されたマーカ画像からのFOVのみを追加することの内一方または双方を含んでもよく、最初に個々のマーカ画像の全てを共通座標系に一致させ、形態学的処理によって併合する。その後、高解像度の対応するFOV画像を得るために、逆レジストレーション(inverse registration)を使用して、識別されたFOVの全てを逆に本来の画像に移転させる。本発明をいずれの理論やメカニズムにも限定することを望むのではないが、本発明のシステムおよび方法は、再現可能である、人間の読み手に偏らない、そして効率が向上するというような利点を提供することができる。その結果、本開示による自動FOV選択のためのディジタル病理学ワークフローは、候補FOVを自動的に供給する、コンピュータ・ベースのFOV選択アルゴリズムを含む。これらの候補FOVは、病理学者またはその他の評価者によって更に分析することができる。
、そして浸潤度の計算における使用に合わせて説明した。しかしながら、本システムおよび方法は、細胞または生体試料のいずれの種類の画像にも適用可能であると言って差し支えなく、任意の種類の細胞または細胞のグループに対する種類、密度、および位置の判定に適用することができる。本明細書において使用する場合、「生体試料」(biological specimen)および「生体組織標本」(biological tissue sample)という用語は、相互交換可能に使用されてもよい。更に、癌組織および免疫マーカ以外でも、本開示は任意の疾病または非疾病状態の任意の生体試料または腫瘍にも適用可能であり、更に、蛍光および非蛍光染料によって染色された生体試料の画像というような、任意の種類の染色を受けた生体試料の画像にも適用可能である。また、ステップの順序は、本明細書において説明するものとは異なってもよいことは、当業者には認められよう。
選択のためのシステム100およびワークフローを示す。図1Aを参照すると、システム100は、メモリ110を含む。メモリ110は、コンピュータ101に結合されたプロセッサ105によって実行される複数の処理モジュールまたは論理命令を格納する。画像取得システム102からの入力が、複数の処理モジュールの内1つ以上の実行をトリガすることができる。プロセッサ105およびメモリ110の他に、コンピュータ101は、キーボード、マウス、スタイラス、およびディスプレイ/タッチスクリーンのような、ユーザ入力および出力デバイスも含む。以下の論述において説明するように、プロセッサ105は、メモリ110上に格納されている論理命令を実行し、1つ以上の染料(例えば、蛍光体、量子ドット、試薬、チラミド、DAPI等)によって染色されたスライド(組織標本のような生体試料を含む)の画像において1つ以上のFOVを自動的に識別することを含む。
るいはスペクトル・カメラのようなスキャナまたはカメラ、あるいは顕微鏡または顕微鏡および/または撮像コンポーネントを有するホール・スライド・スキャナ上のカメラを含んでもよい(画像取得システムは以上の例に限定されるのではない)。例えば、スキャナが生体試料(スライドのような基板上に置かれているとよい)を走査するのでもよく、画像は、ディジタル化画像としてシステムのメモリに保存されてもよい。画像取得システム102から受け取られた入力情報は、ターゲット組織の種類または物体についての情報、ならびに染色および/または撮像プラットフォームの識別を含むことができる。例えば、標本は、明視野撮像用の発色性染料または蛍光撮像用の蛍光体と関連付けられた1つ以上の異なるバイオマーカを含有する染色アッセイの適用によって染色されていてもよい。染色アッセイは、明視野撮像用の発色性染料、有機蛍光体、量子ドット、または蛍光撮像用の量子ドットと併せた有機蛍光体、あるいは染料、バイオマーカ、および目視デバイスまたは撮像デバイスの任意の他の組み合わせを使用することができる。更に、典型的な標本は、染色アッセイを標本に適用し、染色標本が得られる自動染色/アッセイ・プラットフォームにおいて処理される。更に、入力情報は、腫瘍マーカまたは特異免疫細胞のバイオマーカのような、組織上における特定の結合部位(binding site)またはターゲットに、どの特異抗体分子が、どの程度結合するかについての情報も含むことができる。バイオマーカおよび/またはターゲットの選択をシステムに入力することもでき、染料の最適な組み合わせの判定をアッセイに適用することが可能になる。システム100に入力される追加情報には、染色プラットフォームに関係する任意の情報を含むことができ、染色に使用される化学薬品の濃度、染色において組織に適用される化学薬品の反応時間、および/または組織の経年数(age)、固定方法、期間、どのように標本が埋め込まれたか、切除等のような、組織の分析前状態が含まれる。画像データおよびその他の入力情報は、直接送信することができ、あるいはネットワークを通じて、またはユーザの操作用コンピュータ101を介して提供されてもよい。
を分離するために実行することができる。分離モジュール111は、画像を個々のマーカ・カラー・チャネルに分離する。分離モジュール111は、基準カラー・マトリクス・データベース112から読み取り、基準カラー・マトリクスを得て、分離動作を実行するためにこの基準カラー・マトリクスを使用することができる。画像が単一染色スライドのものである場合、この画像はFOV選択に直接使用することができる。いずれの場合でも、ヒート・マップ計算モジュール113を実行して、個々のマーカ画像または単一染色画像に対してヒート・マップを評価することができる。ヒート・マップは、ホール・スライド画像上の種々の構造またはバイオマークの密度をマッピングする。これを遂行するために、ヒート・マップ計算モジュール113は、ロー・パス・フィルタ・モジュール114によって処理されたロー・パス・フィルタ画像(low pass filtered image)にカラーを割り当てるというような動作を実行することができる。また、組織領域マスクもロー・パス・フィルタ画像に適用することもできる。ヒート・マップは、画素のそれぞれの密度にしたがって画素を図示し(illustrate)、つまり各画像における細胞分布の密度に対応する。例えば、ヒート・マップは、密度が高い画素程低密度画素に使用されるカラーよりも暖かいカラーで図示することによって、高密度画素を低密度画素から区別する。極大値フィルタ・モジュール115は、極大値フィルタをロー・パス・フィルタ画像に適用して画像の極大値を得るために実行することができる。続いて、上位K個FOV選択モジュール116が、極大値フィルタ画像から、最も密度が高い上位K箇所の領域を選択するために実行することができる。上位K箇所の領域は、画像毎に候補FOVに指定される。例えば、細胞は、高密度領域では一緒に集まるが、低密度領域ではもっと散乱すると言って差し支えない。各画像からのFOVは、FOV併合モジュール117によって一緒に併合される。FOV併合モジュールは、全てのFOVを取り込む、または選択したマーカからのFOVのみを取り込む、およびこれらを併合するというような動作を実行する。レジストレーション・モジュール(registration module)118は、全ての画像を同じ座標系に転移させ、FOVの座標を直接同じ座標系において追加できる(add up)ようにするために呼び出される。
ロジックを含む。「ロジック」とは、この説明においてそして本開示全体で使用する場合、プロセッサの動作に作用するために供給することができる命令信号および/またはデータの形態を有する任意の情報を指す。ソフトウェアは、このようなロジックの一例である。プロセッサの例には、コンピュータ・プロセッサ(処理ユニット)、マイクロプロセッサ、ディジタル信号プロセッサ、コントローラおよびマイクロコントローラ等がある。ロジックは、メモリ110のようなコンピュータ読み取り可能媒体上に格納された信号で形成することができ、例示的な実施形態では、コンピュータ読み取り可能媒体は、ランダム・アクセス・メモリ(RAM)、リード・オンリ・メモリ(ROM)、消去可能/電気的消去可能プログラマブル・リード・オンリ・メモリ(EPROM/EEPROM)、フラッシュ・メモリ等であってもよい。また、ロジックは、ディジタルおよび/またはアナログ・ハードウェア回路、例えば、論理AND、OR、XOR、NAND、NOR、およびその他の論理演算を構成する(comprise)ハードウェア回路も含むことができる。ロジックは、ソフトウェアおよびハードウェアの組み合わせで形成することもできる。ネットワーク上では、ロジックはサーバまたはサーバの複合体においてプログラミングすることができる。特定のロジック・ユニットがネットワーク上の1つの論理位置に限定されることはない。更に、モジュールは特定の順序で実行される必要は全くない。各モジュールは、他のモジュールを実行する必要があるときには、コールすることができる。
、Nはスライドに適用されるマーカの数を表す。多重スライド121に対しては、例えば、"Image Adaptive Physiologically Plausible Color Separation"(生理学的にもっともらしい画像適応カラー分離)と題し、2013年6月3日に出願された特許出願第61/830,620号およびWO2014/195193 A1に開示されている分離方法にしたがって、カラー分離122を実行する。これらの特許出願をここで引用したことにより、その内容全体が本願にも含まれるものとする。2014年2月21日に出願され "Group Sparsity Model for Image Unmixing"(画像分離用のグループ・スパース・モデル)と題する特許出願第61/943,265号、および2014年12月18日に出願されたPCT/EP2014/078392に開示されている方法は、マーカ毎に画像123を得るために利用される例示的な実施形態に入る。これらの特許出願をここで引用したことにより、その内容全体が本願にも含まれるものとする。他の方法では、画像が単一染色スライドである場合、マーカ毎の単一染色スライドを走査した画像124が、図1Aに示すシステムのような自動FOV選択システムへの入力として利用される。例えば、各マーカの画像からホット・スポット125を計算して、マーカ毎に上位の候補FOV126を生成するために、ヒート・マップ計算動作を実行してもよい。候補FOV126を統合して(127)、最終的なFOVリスト128を生成してもよい。最終的なFOVリスト128は、生体試料、例えば、免疫細胞を評価するために病理学者が利用するために選択することができるFOVのリストを含む。
、高密度のマークされた(即ち、染色)細胞を含む領域であり、例えば、ホット・スポットは、ISH、IHC、蛍光体、量子ドット等のような異なる種類の画像およびマーカからの細胞とすることができる。本開示は、この特徴を実証するための例として、IHC画像において免疫細胞を使用する(既に論じたように、本発明はICH画像における免疫細胞に限定されるのではない)。本開示を考慮すると、ホット・スポットを発見するため、そして浸潤度計算において自動ホット・スポット選択をモジュールとして使用するために、種々のアルゴリズムを当業者が使用することができる。本開示の例示的な実施形態は、手作業で選択されるFOVの偏りを回避する問題を解決するために、本明細書において説明する自動FOV選択動作を利用する。病理学者またはその他の評価者が関心を寄せると思われるFOVを自動的に識別するために、低解像度画像に基づいて(例えば、5倍ズーム画像)、マーカ毎または単一マーカを表す画像毎に、ヒート・マップを計算する。
2において説明する動作は、ホット・スポットを識別するためにヒート・マップ計算をどのように利用するかについて例示する。例えば、入力画像231の単一マーカ・チャネル232を仮定すると、ロー・パス・フィルタ画像234を使用してヒート・マップ235を生成する。これは、基本的に、ロー・パス・フィルタ画像234を入力として取り込み、その上に、ビジュアライゼーションの目的でカラー・マップを適用する。例えば、赤色がロー・パス・フィルタ画像における高明暗度画素に対応してもよく、青色が低明暗度画素に対応してもよい。他のカラーおよび/または明暗度の描画も、本開示を考慮すれば、当業者には明白であろう。組織領域を識別し背景領域を除外することによって、組織領域マスク233を作成することができる。この識別は、エッジ検出等のような画像分析動作によって可能にすればよい。組織領域マスク233は、画像における非組織背景ノイズ、例えば、非組織領域を除去するために使用される。
ぞれの対比染料によって染色され、2つのチャネル、即ち、FP3チャネルおよびHTXチャネルが得られる。この2チャネル画像231を分離して、それぞれ、FP3およびHTチャネルの分離画像232および238を供給する。
・フィルタリングして、ロー・パス・フィルタ画像(low pass filtered image)234を
得る。次に、ビジュアライゼーションの目的で、ロー・パス・フィルタ画像234にヒート・マップ235を追加する。
織領域マスク233を計算する。
[00151]
[00152] 次に、ヒート・マップ235が追加されたまたはされないロー・パス・フィ
ルタ画像234に、極大値フィルタリングを行い、極大値フィルタ画像(local max filtered image)236を得る。極大値フィルタ画像236は、複数の極大値239、ここで検討する例では、図2に示すように、5つの極大値239.1~239.5を含む。次に、閾値を上回る極大値239.1および239.4のみが閾値設定動作によって除去されないように、この閾値を極大値フィルタ画像236に適用することによってというようにして、閾値設定動作を極大値フィルタ画像236に対して行う。
極大値だけをリストから取り出す。ここでKは、ここで検討する実施形態における説明に限っては、2であり、極大値239.1および239.4が得られる。極大値239の各々は、1組の近隣画素から成る。
計算するためというような、本開示の例示的な実施形態による組織マスク計算を示す。組織RGB画像のRGBチャネル336の線形結合337を計算して、グレースケール輝度画像338を作成する。R、G、およびBチャネルに対する結合重み(例えば、337における0.3、0.6、0.1)は、異なる用途に基づいて変更される可能性がある。3画素×3画素の標準偏差フィルタ339を輝度画像338にかけて、フィルタ輝度画像(filtered luminance image)340を得る。ここで、フィルタ・サイズ(例えば、3×3、5×5)は、異なる用途に基づいて変更される可能性がある。組織マスク342は、フィルタ輝度画像340に閾値設定した(341)ことによって得られた二進画像である。例えば、組織マスク342は、画素明暗度値が1.5よりも大きい領域を含むのでもよい。閾値設定パラメータMaxLum(例えば、1.5、2.0、3.0)は、異なる用途に基づいて、変動する可能性がある。
3は、ヒート・マップの最も密度が高い上位K箇所の領域(ホット・スポットとも呼ぶ)から選択される。例えば、Kは、5、10、15、20等から選択することができる。極大値フィルタ画像236を得るために、ヒート・マップ235(図2参照)が追加されたロー・パス・フィルタ画像234に、極大値フィルタを適用する。尚、ヒート・マップ235はこの処理のために必須なのではなく、ビジュアライゼーションの目的に供することは注記してしかるべきである。極大値フィルタは、一定値の画素を接続して、その境界の外側にある画素が全てその一定値よりも低い値を有する領域を識別する機能である。これは、2-D画像では、4つまたは8つの接続した近隣画素を使用することができる。この機能の実現例(implementation)はMatlab(http://www.mathworks.com/help/images/ref/imregionalmax.html)において入手可能である。
して、ホット・スポットの順序付けを行うための並び替えリストを得て、上位K箇所のホット・スポットを報告し、こうして極大値フィルタ画像に閾値設定を行う。あるいは、閾値よりも高い全てのホット・スポットが報告されるように、極大値フィルタ画像に既定の閾値を適用する。極大値フィルタ計算モジュールによって戻される領域は、極大値の位置である。
[00159] 本明細書において説明するように、多重スライドの分離からまたは単一染色
スライドから生成される異なるマーカ画像毎に、異なるFOVを得ることができる。診断対象の患者毎に、同じ1組のFOVが異なるマーカにわたって参照されることを確保するために、これらのFOVを統合する。FOVを統合するには、様々な可能な選択肢がある。図5A~図5Bは、それぞれ、本開示の例示的な実施形態による、全てのマーカからのFOV、および選択したマーカからのFOVの併合を示す。例えば、図5Aに示すように、異なるマーカ画像からの全ての候補FOVを併合してもよい。代わりに、図5Bに示すように、異なるマーカ画像毎に異なるFOVを選択し併合してもよい。
、独立して分析することもできる。図6A~図6Bは、本開示の例示的な実施形態による、FOVの統合を示す。図6Aを参照すると、全てのFOVが選択され、図6Bを参照すると、特定のマーカに対応するFOVだけが選択される。各円661は、マーカに対して可能なFOVを表す。各円661における各ドット662は、各FOVに対する極大点を表す。各円661が異なるマーカを包囲してもよい。線663は、腫瘍領域と非腫瘍領域との間の分離に対応する。腫瘍領域の外側にあるFOV664は、結合(union)および交差(intersection)というような形態学的処理によって除外される。最終的なFOV(即ち、分析のために選択されたFOV)は、図5Aおよび図5Bの方法によって図示されるように、各マーカからの全てのFOVの結合となる。
実施形態では、FOVは任意の形状でもよい。ある実施形態では、FOVは高明暗度領域の周りの境界であってもよい。
選択されたマーカに基づいてFOVを併合する動作を示す。例えば、PF3およびCD8が最も重要なマーカであると仮定する。画像レジストレーション(image registration)を使用して、単一マーカの全ての画像を同じ座標系に位置合わせさせることもできる(例えば、基準座標は、組織ブロックの中央にあるスライド・セクション、または特定のマーカがあるスライドとすることができる)。したがって、各画像をその古い座標系から新たな基準座標系に位置合わせさせることができる。個々のマーカ画像から選択されたマーカ(
例えば、FP3およびCD8)のFOVを共通空間に位置合わせさせ、結合および交差のような形態学的処理を使用して併合し、併合FOV(図6BにおけるFOV665)を得ることもできる。図6Cは、形態学的処理を示す。AはCD8画像からのFOVであり、BはFP3画像からのFOVであると仮定する。最初に、AおよびBを同じ座標系において重ね合わせ、AおよびBの交差を計算することによって重複領域Cを求める。次いで、Cの面積とA(またはB)の面積との比率を評価する。この比率が閾値(例えば、0.6、0.8等)よりも大きい場合、これらのFOVを選択し、そうでない場合、これらのFOVを破棄する。併合したFOVは、更なる分析のために、逆レジストレーション(即ち、新たな座標系において一致させた画像を、逆にその本来の古い座標系に位置合わせさせる)を使用して、単一マーカ画像の全てに逆にマッピングすることができる。腫瘍領域の外側にあるFOV664は除外される。
ーおよび個々のマーカ・ビューを使用する画像分析のためのユーザ・インターフェースを示す。これらの例示的な実施形態では、コンピューティング・デバイスに付随するユーザ・インターフェースを利用してFOV選択を実行してもよい。このユーザ・インターフェースは、全マーカ機能(図7)および単一マーカ機能(図8)を有することができる。ユーザ・インターフェースの上位にあるタブから選択することによって、マーカ機能にアクセスすることができる。図7に示す全マーカ機能を使用するとき、全てのマーカを目視することができ、ヒート・マップ計算、FOV選択、キー・マーカ選択、レジストレーションおよび逆レジストレーションを実行することができる。全マーカ・ビュー(即ち、全てのマーカを並べて表示するビュー)では、画像フォルダのリスト771をロードする(a)というような選択肢を設けることもできる。各フォルダは、同じ場合について多重染色および単一染色を含む全ての画像を収容する。リストにおける画像全てのバッチ処理が可能である。機能パネル(feature panel)772において設けられる他の選択肢には、画像を同時に拡大ズーミングまたは縮小ズーミングして対応する領域を目視するために全ての画像の軸をリンクする(b)、FOVの数を選択する(c)、画像を共通座標系に位置合わせさせる(d)、およびFOVを統合するために、ユーザに最も重要なマーカを選別させる(pick)(e)動作を含むことができる。マーカに色を付けて、FOVの選択に関わったことを示してもよい。更に他の選択肢を設けるのであれば、ヒート・マップ・ビューとIHCビューとの間でユーザに切り替えさせる機能774、各画像のヒート・マップを計算する機能773を含むことができる。
ーまたは単一マーカ・ビューを示す。このビューにおいて設けられる機能(feature)には
、ホール・スライド画像のサムネイル881を表示する機能を含むことができ、FOVにはサムネイル画像においてボックスによって注釈が付けられ、ボックスの近くにある数値(text number)はFOVのインデックスを示す。他の機能(feature)には、ユーザがチェックボックスを使用して望ましくないFOVを削除するために、FOVリスト883から選択させる機能、選択されたFOV882の高解像度画像を表示する機能、各FOVの画像を本来の解像度でローカル・フォルダに保存する機能(d)、およびユーザに標識を各FOVに割り当てさせる機能(e)を含むことができる。この標識は、周辺領域、腫瘍領域、およびリンパ球領域等のような、FOVと関連がある領域とすることができる。尚、これらの例示的なインターフェースは、用途毎に異なり、更に種々のコンピューティング技術間でも異なることもあり、本開示を考慮して、本明細書において説明する新規な特徴を実施可能にする限り、異なるバージョンのインターフェースを使用してもよいことは、当業者には認められよう。
選択を可能にし(provide)、生体試料の分析に重要であり、例えば、浸潤度計算において
組織分析スコアを計算する際に有用であることが分かっている。本明細書において開示する動作は、FOVの選択が再現可能でない、人間の読み手による手作業のFOV選択に偏りがあるというような、先行技術において知られている欠点を克服する。何故なら、自動FOV選択は、人間の読み手の手作業による選択に頼ることなく、コンピュータによってFOVを求めることができるからである。自動免疫細胞計数およびデータ分析と組み合わせると、開示する動作は、1つ以上の走査画像または画像データを入力として取り込み、最終的な臨床成果予測を出力する、完全に自動的なワークフローを可能にする。本明細書において開示するシステムおよび方法は、自動FOV選択を可能にし(provide)、生体試
料の分析に重要であり、例えば、浸潤度計算において組織分析スコアを計算する際に有用であることが分かっている。本明細書において開示する動作は、FOVの選択が再現可能でない、人間の読み手による手作業のFOV選択に偏りがあるというような、先行技術において知られている欠点を克服する。何故なら、自動FOV選択は、人間の読み手の手作業による選択に頼ることなく、コンピュータによってFOVを求めることができるからである。自動免疫細胞計数およびデータ分析と組み合わせると、開示する動作は、1つ以上の走査画像または画像データを入力として取り込み、最終的な臨床成果予測を出力する、完全に自動的なワークフローを可能にする。
病理学ワークフローを示す。この実施形態は、本明細書において開示する自動FOV選択方法を、浸潤度計算ワークフローにおいてどのように利用できるかについて例示する。例えば、本明細書において開示する動作にしたがってスライドを走査し(991)、FOVを選択した(992)後、各FOVにおける異なる種類の細胞の自動検出993を実行することができる。例えば、 "Deep Learning for Cell Detection"(細胞検出のためのデ
ィープ・ラーニング)と題し、2014年5月23日に出願された米国特許出願第62/002,633号およびPCT/EP2015/061226に開示された方法による自動細胞検出技法が、細胞を得て検出する(obtain detect)ために利用される例示的な実施
形態である。この特許出願をここで引用したことにより、その内容全体が本願にも含まれるものとする。更に、特徴(例えば、識別された細胞の数および種類に関係する特徴)を抽出する(994)ことができる。これらは、生体試料(例えば、組織標本等)毎に検出された1つ以上の細胞に関係する。これらの特徴は、腫瘍領域および周辺領域のような、組織画像における異なる領域に関係する異なるFOVにおける異なる種類の細胞の数、および細胞の比率とすることができる。これらの特徴を使用して、クラシファイア(ランダム・フォーレスト(Random Forest)およびサポート・ベクトル・マシン(support Vector Machine)のような)を訓練し(995)、各ケースを異なる成果クラス(例えば、再発す
るまたはしない可能性)に分類することができる。
システムから入力画像(1001)を受け取る。加えて、画像取得システムから一連の低解像度マーカ画像(1004)を受け取る。マーカ画像は、高解像度画像の分離によって導き出してもよく、または単一染色スライド画像として受け取ってもよい。低解像度入力画像を使用して組織領域マスク(1003)を計算する。組織領域マスクは、画像のどの部分が対象の組織を含むかを示す。低解像度画像マーカ画像をロー・パス・フィルタに通し、フィルタ画像マーカ画像(filtered image marker image)(1005)を生成する。
次いで、組織領域マスクをロー・パス・フィルタ画像に適用して、対象でない領域を排除する(0に減らす)。これによって、マーカ毎にマスク・フィルタ画像(masked filtered
image)(1006)が得られる。極大値フィルタを極大値フィルタ画像(max filtered image)に適用して、極大値(1007)を識別する。上位K個の極大値を選択し(100
8)、極大値毎に視野を画定する(1009)。次いで、全ての画像を共通座標フレームに移転させ、重ね合わせ、あらゆる重複した視野を組み合わせることによって、画像毎のFOVを併合する(1010)。次いで、併合視野を本来の画像座標系に逆に移転させ、
分析のために高解像度入力画像からこれらの領域を抽出する。
。このプロセス・フローは、図11aに示すようなFOV生成ステップ(1100)と、図11bに示すような視野併合ステップ(1124)とに分割されている。FOV生成ステップでは、画像取得システムから単一染色画像(1101)を受け取る。これらの画像にロー・パス・フィルタリングを行う(1102)。ある実施形態では、これらの画像をもっと低い解像度に変換してもよく(1103)、これによって処理が高速化する。ある実施形態では、未だ単一カラー・チャネルに変換されて(reduced)いない場合には、分離
ステップ(1104)は、単一染色スライドから対象のカラー・チャネルを抽出するために適用して、単一マーカ画像(1108)を生成してもよい。ある実施形態では、HTX画像(1105)も生成することができる。次いで、対象の特徴を識別するために、単一マーカ画像をセグメント化する(1109)。セグメント化画像から、組織領域マスク(1110)を生成する。ある実施形態では、単一マーカ画像において様々な明暗度の領域にカラーを割り当てることによって、ヒート・マップ(1107)を使用して、単一マーカ画像をビジュアル化する(1106)こともできる。次いで、組織領域マスク(1110)を単一マーカ画像(1111)に適用して、前景画像(1112)を得る。前景画像は、対象の組織領域のみにおいてマーカ画像の明暗度を表示する。前景画像を極大値フィルタ(1113)に通して、明暗度のピークを識別する。候補FOV座標を、極大値フィルタ画像(1114)の上位K個のピークとして識別する。最後に、各候補FOV座標周囲の領域を画定し(1115)、候補FOVのリスト(1116)を得る。これらの動作を、単一染色スライド毎に実行する。
る候補FOVリストの全てを得る(1117)。1つの画像を基準画像として選択し、他の画像を基準画像と一致するように変換することによって、画像を1つの座標フレーム(coordinate frame)に一致させる(1118)。次いで、候補FOV座標を適宜変換し、位置合わせ候補FOVリストを得る(1119)。次いで、FOVを重ね合わせて併合し(1120)、全ての画像に対する統一FOVリストを得る(1121)。次いで、逆レジストレーションを実行して(1122)、統一FOVを逆に本来の単一染色画像の本来の座標系の各々に変換する(1123)。次いで、本来の単一染色スライド上にFOVを表示することができる。
実施形態のプロセス・フローを示す。FOV生成ステップにおいて、多重スライド(1201)を画像取得システムから受け取る。これらの画像にロー・パス・フィルタリングを行う(1202)。ある実施形態では、これらの画像をもっと低い解像度に変換してもよく(1203)、これによって処理が高速化する。この実施形態では、分離ステップ(1204)は、多重スライドから対象のカラー・チャネルを抽出するために適用され、複数の単一マーカ画像を生成する(1208)。ある実施形態では、HTX画像(1205)も生成することができる。次いで、第1単一マーカ画像をセグメント化し(1209)、対象の特徴を識別する。セグメント化画像から、組織領域マスク(1210)を生成する。ある実施形態では、ヒート・マップ(1207)を使用し、単一マーカ画像における様々な明暗度の領域にカラーを割り当てることによって、単一マーカ画像をビジュアル化することもできる(1265)。次いで、組織領域マスク(1210)を単一マーカ画像(1210)に適用して前景画像(1212)を求める。前景画像は、対象の組織領域のみにおけるマーカ画像の明暗度を表示する。この前景画像を極大値フィルタ(1213)に通して、明暗度のピークを識別する。候補FOV座標を、極大値フィルタ画像(1214)の上位K個のピークとして識別する。最後に、各候補FOV座標周囲の領域を画定して(1215)、候補FOVのリストを得る(1216)。これらの動作は、単一染色スラ
イド毎に順番に実行される。FOV併合ステップは、図11bにおけるように進む。
実施形態の更に他のプロセス・フローを示す。画像にロー・パス・フィルタリングを行う(1302)。ある実施形態では、これらの画像をもっと低い解像度(1303)に変換してもよく、これによって処理が高速化する。ある実施形態では、未だ単一カラー・チャネルに変換されていない場合、単一染色スライドから対象のカラー・チャネルを抽出するために分離ステップ(1304)を適用し、単一マーカ画像を生成することができる(1308)。ある実施形態では、HTX画像(1305)も生成することができる。他の実施形態では、ヒート・マップ(1307)を使用し、単一マーカ画像における様々な明暗度の領域にカラーを割り当てることによって、単一マーカ画像をビジュアル化することもできる(1306)。一実施形態では、解像度が低い方の画像をセグメント化し(1309)、対象の特徴を識別する。セグメント化画像から、組織領域マスク(1310)を生成し、次いでマスク動作をセグメント化画像に適用し(1311)、前景画像(1312)を求める。前景画像は、対象の組織領域のみにおけるマーカ画像の明暗度を表示する。他の実施形態では、マスク動作(1311)を単一マーカ画像(1308)に適用し、前景画像(1312)を求める。いずれの実施形態でも、前景画像(1312)を極大値フィルタ(1313)に通し、明暗度のピークを識別する。候補FOV座標を、極大値フィルタ画像(1314)の上位K個のピークとして識別する。最後に、各候補FOV座標周囲の領域を画定し(1315)、候補FOVのリスト(1316)を得る。これらの動作は、単一染色スライド毎に実行される。FOV併合ステップは、図11bにおけるように進む。
の目的に限って、免疫細胞の識別に関連付けて、そして浸潤度計算における使用について説明した。しかしながら、本発明による自動FOV選択のためのコンピュータ実装方法は、任意の種類の細胞の画像または生体試料の画像にも適用可能であり、任意の種類の細胞または細胞群についての種類、密度、および位置の判定に適用可能である。更に、前立腺/肺癌診断などのような解剖または臨床病理学のような医療用途以外にも、地質学または天文学データ等の遠隔検知のような、他の種類の標本を分析するために同じ方法を実行することができる。本明細書において開示した動作は、ハードウェア・グラフィクス処理ユニット(GPU)に移植する(port)ことができ、マルチスレッド並列実施を可能にする。
10は、スライスされて、図23に示すように、組織スライス1、2、3、および4のような近隣組織スライスになる。これらの組織スライスは、1μm~10μmの間というようなマイクロメートル範囲の厚さ、例えば、6μmの厚さを有することができる。
料で染色する。このようにして、例えば、染料および対比染料によって染色された画像231(図2参照)、およびマルチチャネル画像5が得られる。
2、3、4の1つから、例えば、これらの組織スライスの1つを伝える(carry)ことがで
きる図1Bの多重スライド121から、得ることができる。加えて、単一染色画像6および7のような染色組織スライスから更に他の画像も取得することができる。これらの画像231、5、6、および7は、コンピュータ101(図1A参照)の電子メモリ内にというように、画像処理システムの電子メモリに格納することができる。コンピュータ101はサーバ・コンピュータであってもよい。
上に関して実行し、絞り込み画像237を得ることができる。絞り込み画像237において、視野240.1および240.2は、図2の実施形態にしたがって、それぞれの矩形ボックスによって示されている。画像5を分離する際、一般性の限定ではなく、N=3と仮定すると(図1B参照)、1組の分離画像5.1、5.2、および5.3が求まる。尚、分離画像5.1、5.2、および5.3は、画像レジストレーションも画像位置合わせもこの1組の画像に関しては不要となるように、全て同じマルチチャネル画像5から得られたので、これらは正確に同じ座標系を共有することは注記してしかるべきである。追加の画像6および7は、画像処理動作を受けても受けなくてもよい。
237、5、6、および7を一致させ(registered)、位置合わせする。例えば、画像レジストレーション・アルゴリズムを実行するために、マルチチャネル画像5を基準画像として選択する。画像レジストレーション・アルゴリズムは、他の画像の各々の幾何学的変換、即ち、マルチチャネル画像5に関する画像231/237、6、および7の幾何学的変換を行う(generate)。マルチチャネル画像5をレジストレーションのための基準画像として使用すると、ここで検討している例では、位置合わせ動作を3回だけ実行すれば済むという利点がある。比較すると、例えば、画像7が基準画像として選択されたとすると、画像7との位置合わせのために、5回の位置合わせ動作が画像231/237、5.1、5.2、5.3、および6を変換するために必要となる。したがって、マルチチャネル画像5を基準として選択すると、計算の負担が大幅に低減し、画像位置合わせのレイテンシ時間が短縮する。
ッピングするためのマッピング、画像6の各画素をマルチチャネル画像5におけるそれぞれの画素にマッピングするためのマッピング等のように、他の画像231/237、6、および7の各々について、基準画像5へのマッピングを生成する。ここで検討する例では、この結果3つのマッピングができる。尚、画像231/237をマルチチャネル画像5にマッピングするためのマッピングは、画像231または画像237のいずれかを使用して得ることができることは注記してしかるべきである。何故なら、これら2つの画像は、図2にしたがって実行した分離ステップによって、同じ座標系を共有するからである。
トレーションの結果として得られ、次いで画像237、6、および7を基準画像、即ち、マルチチャネル画像5/分離画像5.1、5.2、および5.3に関して位置合わせするために利用される。
のディスプレイ8、あるいは、例えば、AndroidまたはiOSオペレーティング・システムを実行するスマートフォンのような移動体バッテリ給電型電気通信デバイスのディスプレイ上に表示される。後者の場合、画像237、5.1、5.2、5.3、6、7、ならびに画像レジストレーションおよび視野240.1および240.2を示すメタデータから得られる幾何学的変換、例えば、マッピングは、移動体セルラ・ディジタル電気通信ネットワークのような、電気通信ネットワークを通じて、例えば、GSM(登録商標)、UMTS、CDMA、またはロング・ターム・エヴォリューション規格にしたがって、移動体バッテリ給電型電気通信デバイスに送信される。ディスプレイ8は、コンピュータ101のグラフィカル・ユーザ・インターフェースを介して、または電気通信デバイスを介して、ジェスチャ認識によってコマンドを入力することを可能にするタッチ感応型でもよい。
ジェクト、即ち、矩形ボックスをタッチすることによって、視野から1つを選択することができる。一例としてのみ図23に示すように、これは、ユーザが彼または彼女の指14の1本を置いた視野240.1であってもよい。このジェスチャに応答して、図23にも示すように、この視野を拡大することによって、拡大ズーム画像変換が実行される。
に関しても同期して実行される。視野240.1は、画像5.1、5.2、5.3、6、および7におけるそれぞれの画像部分9、10、11、12、13に対応する。これらの画像部分9から13は、画像レジストレーション、即ち、マッピングから得られたそれぞれの幾何学的変換によって与えられる。ユーザのジェスチャ、即ち、指14による視野240.1のタッチに応答して、視野240.1に関して実行される拡大ズーム画像変換が、同期して画像部分9から13に関しても実行される。
関して拡大ズームを実行して拡大画像部分16’を求め、更に同期して他の同じ位置にある領域17~21に関しても拡大ズームを実行して、拡大領域17’、18’、19’、20’、および21’を求める。指14および15の距離を縮めることによって、縮小ズームも同様に実行することができる。
ム・メモリ、メモリ記憶デバイス、入力-出力コントローラ、入力-出力デバイス、およびディスプレイ・デバイスのような、周知のコンポーネントを含む。また、コンピュータには多くの可能な構成およびコンポーネントがあり、キャッシュ・メモリ、データ・バックアップ・ユニット、および多くのその他のデバイスも含んでもよいことも、関連技術における当業者には理解されよう。入力デバイスの例には、キーボード、カーソル制御デバイス(例えば、マウス)、マイクロフォン、スキャナ等が含まれる。出力デバイスの例には、ディスプレイ・デバイス(例えば、モニタまたは投影機)、スピーカ、プリンタ、ネットワーク・カード等が含まれる。ディスプレイ・デバイスは、視覚情報を提供するディスプレイ・デバイスを含んでもよく、この情報は、通例、画素のアレイとして、論理的および/または物理的に編成することができる。また、インターフェース・コントローラも含んでもよく、インターフェース・コントローラは、入力および出力インターフェースを設けるための種々の既知のソフトウェア・プログラムまたは今後のソフトウェア・プログラムの内任意のものを含んでもよい。例えば、インターフェースは、1つ以上のグラフィック表現をユーザに提供する、一般に「グラフィカル・ユーザ・インターフェース」(GUIと呼ばれることも多い)と呼ばれるものを含んでもよい。通例、インターフェースがイネーブルされると、関連技術における当業者には周知の選択または入力手段を使用して、ユーザ入力を受け入れる。また、インターフェースはタッチ・スクリーン・デバイスであってもよい。同じ実施形態または代替実施形態において、コンピュータ上のアプリケーションが、「コマンド・ライン・インターフェース」(CLIと呼ばれることも多い)と呼ばれるものを含むインターフェースを採用してもよい。CLIは、通例、アプリケーションとユーザとの間に、テキスト・ベースの対話処理を設ける。通例、コマンド・ライン・インターフェースは、ディスプレイ・デバイスを通じて、テキストのラインとして出力を提示し、入力を受け取る。例えば、一部の実施態様では、関連技術における当業者には周知のUnix Shells、またはMicrosoft.NETフレームワークのような、オブジェクト指向型プログラミング・アーキテクチャを採用するMicrosoft Windows Powershellのような、「シェル」と呼ばれるものを含んでもよい。
を含んでもよいことは、関連技術における当業者には認められよう。プロセッサは、Intel Corporationが製造するCeleron、Core、またはPentiumプロセッサ、Sun Microsystemsが製造するSPARCプロセッサ、AMD Corporationが製造するAthlon、Sempron、Phenom、またはOpteronのような、市販のプロセッサを含むことができ、または入手可能なまたは今後入手可能になる他のプロセッサの1つであってもよい。プロセッサの実施形態には、マルチコア・プロセッサと呼ばれるものを含み、および/または単一コアまたはマルチコア構成の並列処理技術を採用することが可能とされるものもある。例えば、マルチコア・アーキテクチャは、通例、2つ以上のプロセッサ「実行コア」を含む。この例では、各実行コアが、独立したプロセッサとして実行することができ、複数のスレッドの並行実行を可能にする。加えて、関連技術における当業者には、プロセッサが、32または64ビット・アーキテクチャと一般に呼ばれるもの、あるいは現在知られているまたは今後開発される可能性がある他のアーキテクチャ構成で構成されてもよいことが認められよう。
ィング・システムは、例えば、Microsoft CorporationからのWindows型オペレーティング・システム、Apple Computer Corp.からのMac OS Xオペレーティング・システム、多くの販売業者から入手可能なUnixまたはLinux(登録商標)型オペレーティング・システム、あるいはオープン・ソースと呼ばれるもの、その他のオペレーティング・システムまたは今後のオペレーティング・システム、もしくはこれらの何らかの組み合わせであってもよい。オペレーティング・システムは、ファームウェアおよびソフトウェアと周知の様式でインターフェースし、種々のプログラミング言語で書かれることもある種々のコンピュータ・プログラムの機能を調整および実行するときに、プロセッサを補助する(facilitate)。オペレーティング・システムは、通例、プロセッサと協働して、コンピュータの他のコンポーネントの機能を調整および実行する。また、オペレーティング・システムは、スケジューリング、入力-出力制御、ファイルおよびデータ管理、メモリ管理、ならびに通信制御および関連サービスも、全て周知の技法にしたがって、提供する。
ンピュータによってアクセスすることができる種々の既知のメモリ記憶デバイスまたは今後のメモリ記憶デバイスの内任意のものを含んでもよい。コンピュータ読み取り可能記憶媒体は、揮発性および不揮発性、リムーバブルおよび非リムーバブル媒体を含むことができ、コンピュータ読み取り可能命令、データ構造、プログラム・モジュール、またはその他のデータというような情報の格納のための任意の方法または技術で実現される。例には、一般に入手可能なあらゆるランダム・アクセス・メモリ(RAM)、リード・オンリ・メモリ(ROM)、電子的消去可能プログラマブル・リード・オンリ・メモリ(EEPROM)、ディジタル・バーサタイル・ディスク(DVD)、常駐ハード・ディスクまたはテープのような磁気媒体、リードおよびライト・コンパクト・ディスクのような光媒体、あるいはその他のメモリ記憶デバイスが含まれる。メモリ記憶デバイスには、種々の周知のデバイスまたは今後のデバイスの内任意のものを含んでもよく、コンパクト・ディスク・ドライブ、テープ・ドライブ、リムーバブル・ハード・ディスク・ドライブ、USBまたはフラッシュ・ドライブ、あるいはディスケット・ドライブが含まれる。このようなタイプのメモリ記憶デバイスは、通例、コンパクト・ディスク、磁気テープ、リムーバブル・ハード・ディスク、USBまたはフラッシュ・ドライブ、あるいはフロッピ・ディスケットのようなプログラム記憶媒体からそれぞれ読み取りを行い、および/またはこれらに書き込みを行う。これらのプログラム記憶媒体、あるいは現在使用されている他のプログラム記憶媒体、または今後開発される可能性があるプログラム記憶媒体はいずれも、コンピュータ・プログラム製品と見なしてもよい。認められるであろうが、これらのプログラム記憶媒体は、通例、コンピュータ・ソフトウェア・プログラムおよび/またはデータを格納する。コンピュータ・ソフトウェア・プログラムは、コンピュータ制御ロジックとも呼ばれ、メモリ記憶デバイスと共に使用されるシステム・メモリおよび/またはプログラム記憶デバイスに格納されるのが通例である。ある実施形態では、コンピュータ・プログラム製品は、制御ロジック(プログラム・コードを含むコンピュータ・ソフトウェア・プログラム)が格納されているコンピュータ使用可能媒体を含むというように記述される。制御ロジックは、プロセッサによって実行されると、本明細書において説明した機能をこのプロセッサに実行させる。他の実施形態では、一部の機能は、例えば、ハードウェア状態機械を使用して、主にハードウェアで実現される。本明細書において説明した機能を実行するハードウェア状態機械の実現は、関連技術の当業者には明白であろう。入力-出力コントローラは、人間または機械に関係なく、ローカルまたはリモートにも関係なく、ユーザから情報を受け入れて処理するための種々の既知のデバイスの内任意のものを含むことができる。このようなデバイスは、例えば、モデム・カード、ワイヤレス・カード、ネットワーク・インターフェース・カード、サウンド・カード、または種々の既知の入力デバイスの任意のもののための他のタイプのコントローラを含む。出力コントローラは、人間または機械に関係なく、ローカルまたはリモートにも関係なく、ユーザに情報を提示するための種々の既知のディスプレイ・デバイスの任意のもののためのコントローラを含むことができる。現在説明している実施形態では、コンピュータの機能エレメントがシステム・バスを介して互いに通信する。コンピュータの実施形態には、ネットワークまたは他のタイプの遠隔通信を使用して、いくつかの機能エレメントと通信できるものもある。関連技術の当業者には明白であろうが、計器制御および/またはデータ処理アプリケーションがソフトウェアで実装される場合、システム・メモリおよび/またはメモリ記憶デバイスにロードされ、そこから実行されればよい。また、計器制御および/またはデータ処理アプリケーションの全てまたは一部は、メモリ記憶デバイスのリード・オンリ・メモリまたは同様のデバイスに存在してもよく、このようなデバイスは、計器制御および/またはデータ処理アプリケーションが最初に入力-出力コントローラを介してロードされることを必要としない。尚、実行に有利であれば、計器制御および/またはデータ処理アプリケーション、あるいはその一部がプロセッサによってシステム・メモリ、またはキャッシュ・メモリ、あるいは双方に、既知の様式でロードされてもよいことは、関連技術の当業者には理解されよう。また、コンピュータは、システム・メモリに格納されている1つ以上のライブラリ・ファイル、実験データ・ファイル、およびインターネット・クライアントを含んでもよい。例えば、実験データは、検出信号値、あるいは1回以上のシーケンシング・バイ・シンセシス(SBS sequencing by synthesis)実験またはプロセスに関連する他の値のような、1回以上の実験またはアッセイに関係するデータを含むことができる。加えて、インターネット・クライアントが、ネットワークを使用して他のコンピュータ上にあるリモート・サービスにアクセスするために使用可能な(enabled)アプリケーションを含んでもよく、例えば、一般に「ウェブ・ブラウザ」と呼ばれるものを備えてもよい(comprise)。この例では、いくつかの一般に採用されるウェブ・ブラウザには、Microsoft Corporationから入手可能なMicrosoft Internet Explorer、Mozilla CorporationからのMozilla Firefox、Apple Computer Corp.からのSafari、Google CorporationからのGoogle Chrome、あるいは当技術分野において現在知られているあるいは今後開発されるその他のタイプのウェブ・ブラウザが含まれる。また、同じまたは他の実施形態において、インターネット・クライアントが、生物学的用途のためのデータ処理アプリケーションのような、ネットワークを通じて遠隔情報にアクセスするために使用可能な、特殊ソフトウェア・アプリケーションを含んでもよく、またはそのエレメントであることも可能である。
つ以上を含むことができる。例えば、ネットワークは、TCP/IPプロトコル・スイートと一般に呼ばれるものを通信のために採用することがあるローカルまたはワイド・エリア・ネットワークを含むことができる。ネットワークは、一般にインターネットと呼ばれる、相互接続コンピュータ・ネットワークの世界規模のシステムを構成するネットワークを含んでもよく、または種々のイントラネット・アーキテクチャを含むこともできる。また、ネットワーク接続環境におけるユーザの中には、ハードウェアおよび/またはソフトウェア・システムとの間の情報トラフィックを制御するために、一般に「ファイアウォール」(ときとしてパケット・フィルタまたは境界保護デバイスと呼ばれることもある)と呼ばれるものを採用することを好む者がいることも、関連技術における当業者には認められよう。例えば、ファイアウォールは、ハードウェアまたはソフトウェア・エレメントあるいはそれらの何らかの組み合わせを含むこともでき、通例、例えば、ネットワーク・アドミニストレータ等のようなユーザによって導入されたセキュリティ・ポリシーを施行するように設計される。
提示されたものである。これが網羅的であることも、開示した形態そのものに本開示を限定することも意図していない。本明細書において説明した実施形態の多くの変形や変更も、以上の開示を考慮すれば、当業者には明白であろう。本開示の範囲は、添付される請求項、およびそれらの均等物によってのみ定められるものとする。
の方法および/またはプロセスを、ステップの特定のシーケンスとして紹介したこともある。しかしながら、この方法またはプロセスが、本明細書において明記した特定のステップ順序には依存しないのであるからには、この方法またはプロセスは、説明したステップの特定のシーケンスには限定されなくて当然である。ステップの他のシーケンスも可能であってもよいことは当業者には認められよう。したがって、本明細書において明記したステップの特定の順序は、請求項に対する限定として解釈してはならず、加えて、本開示の方法および/またはプロセスを対象とする請求項は、記載された順序でのそれらのステップの実行に限定されなくて当然であり、これらのシーケンスは変化してもよく、それであっても本開示の主旨および範囲内に該当することに変わりはないことは、当業者には容易に認めることができよう。
Claims (20)
- 対象物体の同じ領域の複数のビューを同時に表示するためのシステムであって、
プロセッサと、
前記プロセッサに結合されたメモリであって、コンピュータ読み取り可能命令を格納するメモリと、
を備え、前記コンピュータ読み取り可能命令は、前記プロセッサによって実行されると、前記システムに、
前記対象物体の少なくとも一部分に対応する前記同じ領域の複数のビューを表す複数の前処理画像を受け取るステップであって、各々の前処理画像は、(i)画像ビュー・モード、および(ii)グローバル標準基準画像フレーム(GSRF)に関する前処理画像を記述するメタデータ、に関連付けられる、ステップと、
前記複数の前処理画像の同時表示を可能とする前記グローバル標準基準画像フレームに関する表示画像テンプレートを決定するステップと、
一組の表示可能画像を生成するステップであって、前記一組の表示可能画像のうちの各表示可能画像は、前記表示画像テンプレートに基づいて、前処理画像の画素位置を前記表示可能画像の対応する画素位置にマッピングするように生成される、ステップと、
前記一組の表示可能画像を表示画面上におけるビューのための表示パターンに配列するステップと、
前記配列された一組の表示可能画像を前記表示画面上に表示させるステップと、
を含む動作を実行させる、システム。 - 前記表示画像テンプレートは、前記複数の前処理画像のうちの1つの前処理画像における画素の位置を示す基準画像フレームであり、各前処理画像の前記メタデータは、前処理画像のローカル基準画像フレーム(PI-LRF)を含む、請求項1に記載のシステム。
- 前記GSRFは、各前処理画像のローカル基準フレームと前記グローバル標準基準画像フレームとの間のアフィン・マッピングを定めることによって、前記複数の前処理画像のうちの2つ以上の前処理画像間の空間的関係を示す固定基準画像フレームであり、前記メタデータは、前記PI-LRFと前記GSRFとの間の第1のアフィン・マッピングを更に含む、請求項2に記載のシステム。
- 前記動作は、更に、
前記配列された一組の表示可能画像のうちの1つの表示可能画像を操作するためのユーザ動作を受け取るステップと、
前記配列された一組の表示可能画像のうちの他の全ての表示可能画像を、前記ユーザ動作に基づいて前記表示可能画像と調和するように操作するステップと、
を含む、請求項3に記載のシステム。 - 前記表示画像テンプレートを決定するステップは、
表示画像画素格子を作成するステップと、
前記表示画像画素格子に関連する画素位置を示す表示画像ローカル基準フレーム(DI-LRF)を構築するステップであって、前記DI-LRFは、前記表示画像テンプレートに対応する、ステップと、
前記GSRFを参照して前記DI-LRFに関する位置、方位、および倍率を決定するステップと、
前記DI-LRFの画素位置を前記GSRFの画素位置にマッピングするアフィン変換を計算するステップと、
前記計算されたアフィン変換に基づいて前記表示画像テンプレートのアフィン部分マッピングを生成するステップと、
を含む、請求項3に記載のシステム。 - 前記一組の表示可能画像を生成するステップは、更に、
前記表示画像テンプレートおよび前記表示画像テンプレートの前記アフィン部分マッピングのコピーを構築するステップと、
前記アフィン部分マッピングを前記前処理画像の第1アフィン・マッピングと共に処理して複合マッピングを生成するステップであって、前記複合マッピングは、前記表示可能画像の前記対応する画素位置に対する、前記前処理画像の前記画素位置を示す、ステップと、
前記一組の表示可能画像のうちの1つの表示可能画像を生成するステップであって、前記表示可能画像は、一組の画素を含み、前記表示可能画像は、
一組の画像画素のうちの画像画素毎に、
前記複合マッピングを用いて、前記画像画素の位置を前記前処理画像における画素の対応する位置へマッピングするステップと、
前記対応する位置に基づいて前記前処理画像における近隣画素の画素値を推定するステップと、
前記近隣画素の前記推定された画素値を前記画像画素の画素値として指定するステップと、
を含む動作に基づいて生成される、ステップと、
を含む、請求項5に記載のシステム。 - 前記対象物体は、生体組織標本である、請求項3に記載のシステム。
- 前記一組の表示可能画像を生成するステップは、更に、前記複数の前処理画像の各前処理画像に対して非線形補正を行うステップを含む、請求項3に記載のシステム。
- 前記動作は、更に、(i)前記表示可能画像上における前記ユーザ動作に応答して、前記表示画面上で調和して前記一組の表示可能画像の倍率レベルを増加させるステップ、(ii)前記表示可能画像上における前記ユーザ動作に応答して、前記表示画面上で調和して前記一組の表示可能画像を移動させるステップ、(iii)前記表示可能画像上における前記ユーザ動作に応答して、前記表示画面上で調和して前記一組の表示可能画像を回転するステップ、または(iv)それらの組み合わせ、を含む、請求項4に記載のシステム。
- 命令を格納した非一時的コンピュータ読み取り可能媒体であって、前記命令は、対象物体の同じ領域の複数のビューを同時に表示するためのシステムの1または複数のプロセッサによって実行されると、前記システムに、
前記対象物体の少なくとも一部分に対応する前記同じ領域の複数のビューを表す複数の前処理画像を受け取るステップであって、各々の前処理画像は、(i)画像ビュー・モード、および(ii)グローバル標準基準画像フレーム(GSRF)に関する前処理画像を記述するメタデータ、に関連付けられる、ステップと、
前記複数の前処理画像の同時表示を可能とする前記グローバル標準基準画像フレームに関する表示画像テンプレートを決定するステップと、
一組の表示可能画像を生成するステップであって、前記一組の表示可能画像のうちの各表示可能画像は、前記表示画像テンプレートに基づいて、前処理画像の画素位置を前記表示可能画像の対応する画素位置にマッピングするように生成される、ステップと、
前記一組の表示可能画像を表示画面上におけるビューのための表示パターンに配列するステップと、
前記配列された一組の表示可能画像を前記表示画面上に表示させるステップと、
を含む方法を実行させる、非一時的コンピュータ読み取り可能媒体。 - 前記表示画像テンプレートは、前記複数の前処理画像のうちの1つの前処理画像における画素の位置を示す基準画像フレームであり、各前処理画像の前記メタデータは、前処理画像のローカル基準画像フレーム(PI-LRF)を含む、請求項10に記載の非一時的コンピュータ読み取り可能媒体。
- 前記GSRFは、各前処理画像のローカル基準フレームと前記グローバル標準基準画像フレームとの間のアフィン・マッピングを定めることによって、前記複数の前処理画像のうちの2つ以上の前処理画像間の空間的関係を示す固定基準画像フレームであり、前記メタデータは、前記PI-LRFと前記GSRFとの間の第1のアフィン・マッピングを更に含む、請求項11に記載の非一時的コンピュータ読み取り可能媒体。
- 前記表示画像テンプレートを決定するステップは、
表示画像画素格子を作成するステップと、
前記表示画像画素格子に関連する画素位置を示す表示画像ローカル基準フレーム(DI-LRF)を構築するステップであって、前記DI-LRFは、前記表示画像テンプレートに対応する、ステップと、
前記GSRFを参照して前記DI-LRFに関する位置、方位、および倍率を決定するステップと、
前記DI-LRFの画素位置を前記GSRFの画素位置にマッピングするアフィン変換を計算するステップと、
前記計算されたアフィン変換に基づいて前記表示画像テンプレートのアフィン部分マッピングを生成するステップと、
を含む、請求項12に記載の非一時的コンピュータ読み取り可能媒体。 - 前記一組の表示可能画像を生成するステップは、更に、
前記表示画像テンプレートおよび前記表示画像テンプレートの前記アフィン部分マッピングのコピーを構築するステップと、
前記アフィン部分マッピングを前記前処理画像の第1アフィン・マッピングと共に処理して複合マッピングを生成するステップであって、前記複合マッピングは、前記表示可能画像の前記対応する画素位置に対する、前記前処理画像の前記画素位置を示す、ステップと、
前記一組の表示可能画像のうちの1つの表示可能画像を生成するステップであって、前記表示可能画像は、一組の画素を含み、前記表示可能画像は、
一組の画像画素のうちの画像画素毎に、
前記複合マッピングを用いて、前記画像画素の位置を前記前処理画像における画素の対応する位置へマッピングするステップと、
前記対応する位置に基づいて前記前処理画像における近隣画素の画素値を推定するステップと、
前記近隣画素の前記推定された画素値を前記画像画素の画素値として指定するステップと、
を含む動作に基づいて生成される、ステップと、
を含む、請求項13に記載の非一時的コンピュータ読み取り可能媒体。 - 前記対象物体は、生体組織標本である、請求項12に記載の非一時的コンピュータ読み取り可能媒体。
- コンピュータ実装方法であって、
対象物体の少なくとも一部分に対応する同じ領域の複数のビューを表す複数の前処理画像を受け取るステップであって、各々の前処理画像は、(i)画像ビュー・モード、および(ii)グローバル標準基準画像フレーム(GSRF)に関する前処理画像を記述するメタデータ、に関連付けられる、ステップと、
前記複数の前処理画像の同時表示を可能とする前記グローバル標準基準画像フレームに関する表示画像テンプレートを決定するステップと、
一組の表示可能画像を生成するステップであって、前記一組の表示可能画像のうちの各表示可能画像は、前記表示画像テンプレートに基づいて、前処理画像の画素位置を前記表示可能画像の対応する画素位置にマッピングするように生成される、ステップと、
前記一組の表示可能画像を表示画面上におけるビューのための表示パターンに配列するステップと、
前記配列された一組の表示可能画像を前記表示画面上に表示させるステップと、
を含む、コンピュータ実装方法。 - 前記表示画像テンプレートは、前記複数の前処理画像のうちの1つの前処理画像における画素の位置を示す基準画像フレームであり、各前処理画像の前記メタデータは、前処理画像のローカル基準画像フレーム(PI-LRF)を含み、前記対象物体は、生体組織標本である、請求項16に記載のコンピュータ実装方法。
- 前記GSRFは、各前処理画像のローカル基準フレームと前記グローバル標準基準画像フレームとの間のアフィン・マッピングを定めることによって、前記複数の前処理画像のうちの2つ以上の前処理画像間の空間的関係を示す固定基準画像フレームであり、前記メタデータは、前記PI-LRFと前記GSRFとの間の第1のアフィン・マッピングを更に含む、請求項17に記載のコンピュータ実装方法。
- 前記表示画像テンプレートを決定するステップは、
表示画像画素格子を作成するステップと、
前記表示画像画素格子に関連する画素位置を示す表示画像ローカル基準フレーム(DI-LRF)を構築するステップであって、前記DI-LRFは、前記表示画像テンプレートに対応する、ステップと、
前記GSRFを参照して前記DI-LRFに関する位置、方位、および倍率を決定するステップと、
前記DI-LRFの画素位置を前記GSRFの画素位置にマッピングするアフィン変換を計算するステップと、
前記計算されたアフィン変換に基づいて前記表示画像テンプレートのアフィン部分マッピングを生成するステップと、
を含む、請求項18に記載のコンピュータ実装方法。 - 前記一組の表示可能画像を生成するステップは、更に、
前記表示画像テンプレートおよび前記表示画像テンプレートの前記アフィン部分マッピングのコピーを構築するステップと、
前記アフィン部分マッピングを前記前処理画像の第1アフィン・マッピングと共に処理して複合マッピングを生成するステップであって、前記複合マッピングは、前記表示可能画像の前記対応する画素位置に対する、前記前処理画像の前記画素位置を示す、ステップと、
前記一組の表示可能画像のうちの1つの表示可能画像を生成するステップであって、前記表示可能画像は、一組の画素を含み、前記表示可能画像は、
一組の画像画素のうちの画像画素毎に、
前記複合マッピングを用いて、前記画像画素の位置を前記前処理画像における画素の対応する位置へマッピングするステップと、
前記対応する位置に基づいて前記前処理画像における近隣画素の画素値を推定するステップと、
前記近隣画素の前記推定された画素値を前記画像画素の画素値として指定するステップと、
を含む動作に基づいて生成される、ステップと、
を含む、請求項19に記載のコンピュータ実装方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562213487P | 2015-09-02 | 2015-09-02 | |
US62/213,487 | 2015-09-02 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018511146A Division JP6823646B2 (ja) | 2015-09-02 | 2016-08-25 | 生体試料の複数の画像を表示するための画像処理システムおよび方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021073566A JP2021073566A (ja) | 2021-05-13 |
JP7153095B2 true JP7153095B2 (ja) | 2022-10-13 |
Family
ID=56801550
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018511146A Active JP6823646B2 (ja) | 2015-09-02 | 2016-08-25 | 生体試料の複数の画像を表示するための画像処理システムおよび方法 |
JP2021001982A Active JP7153095B2 (ja) | 2015-09-02 | 2021-01-08 | 生体試料の複数の画像を表示するための画像処理システムおよび方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018511146A Active JP6823646B2 (ja) | 2015-09-02 | 2016-08-25 | 生体試料の複数の画像を表示するための画像処理システムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (2) | US10552960B2 (ja) |
EP (2) | EP4220564A3 (ja) |
JP (2) | JP6823646B2 (ja) |
CN (2) | CN114972548A (ja) |
AU (1) | AU2016314704A1 (ja) |
CA (1) | CA2995748A1 (ja) |
WO (1) | WO2017036921A1 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4220564A3 (en) | 2015-09-02 | 2023-08-30 | Ventana Medical Systems, Inc. | Image processing systems and methods for displaying multiple images of a biological specimen |
JP2017099616A (ja) * | 2015-12-01 | 2017-06-08 | ソニー株式会社 | 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム |
US10146908B2 (en) * | 2016-01-07 | 2018-12-04 | General Electric Company | Method and system for enhanced visualization and navigation of three dimensional and four dimensional medical images |
CN109073454B (zh) | 2016-04-20 | 2021-12-21 | 徕卡生物系统成像股份有限公司 | 数字病理学色彩校准和验证 |
JP6670222B2 (ja) * | 2016-11-01 | 2020-03-18 | 株式会社日立ハイテク | 画像診断支援装置及びシステム、画像診断支援方法 |
US10663711B2 (en) | 2017-01-04 | 2020-05-26 | Corista, LLC | Virtual slide stage (VSS) method for viewing whole slide images |
WO2019013960A1 (en) | 2017-07-11 | 2019-01-17 | Siemens Healthcare Diagnostics Inc. | METHODS AND SYSTEMS FOR LEARNING BASED IMAGE EDGE IMPROVEMENT FOR HIGHER SAMPLE TUBE CIRCLES |
CN110321908A (zh) * | 2018-03-29 | 2019-10-11 | 华为技术有限公司 | 图像识别方法、终端设备及计算机可读存储介质 |
US11030758B2 (en) * | 2018-05-18 | 2021-06-08 | Strateos, Inc. | Method and apparatus for registering images of histological sections |
US10943346B2 (en) * | 2018-05-21 | 2021-03-09 | Corista, LLC | Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning |
JP7083037B2 (ja) * | 2018-09-20 | 2022-06-09 | 富士フイルム株式会社 | 学習装置及び学習方法 |
US11756203B2 (en) | 2018-09-21 | 2023-09-12 | The Johns Hopkins University | Characterization platform for scalable, spatially-resolved multispectral analysis of tissue |
US11574476B2 (en) * | 2018-11-11 | 2023-02-07 | Netspark Ltd. | On-line video filtering |
IL311148B1 (en) | 2018-11-11 | 2024-07-01 | Netspark Ltd | Online video filtering |
US10818386B2 (en) * | 2018-11-21 | 2020-10-27 | Enlitic, Inc. | Multi-label heat map generating system |
US11803963B2 (en) | 2019-02-01 | 2023-10-31 | Sartorius Bioanalytical Instruments, Inc. | Computational model for analyzing images of a biological specimen |
US10885631B2 (en) * | 2019-02-01 | 2021-01-05 | Essen Instruments, Inc. | Label-free cell segmentation using phase contrast and brightfield imaging |
EP3695788B1 (en) * | 2019-02-15 | 2023-08-16 | IMEC vzw | Improved ultrasound imaging of vasculature |
CN109858472B (zh) * | 2019-04-09 | 2023-08-04 | 武汉领普科技有限公司 | 一种嵌入式实时人形检测方法和装置 |
KR20220064346A (ko) * | 2019-04-23 | 2022-05-18 | 로레알 | 컨볼루션 신경망 기반 랜드마크 추적기 |
WO2020227710A1 (en) * | 2019-05-09 | 2020-11-12 | H. Lee Moffitt Cancer Center And Research Institute, Inc. | Systems and methods for slide image alignment |
JPWO2020262117A1 (ja) * | 2019-06-28 | 2020-12-30 | ||
CN111242242B (zh) * | 2020-02-27 | 2022-04-12 | 武汉大学 | 一种基于置信度选择的宫颈组织病理全玻片图像自动分类方法 |
GB202006144D0 (en) * | 2020-04-27 | 2020-06-10 | Univ Oxford Innovation Ltd | Method of diagnosing a biological entity, and diagnostic device |
JP7463938B2 (ja) * | 2020-10-14 | 2024-04-09 | 株式会社島津製作所 | X線撮影システムおよび異物確認方法 |
JP7432182B2 (ja) * | 2020-10-18 | 2024-02-16 | エイアイエックスメド・インコーポレイテッド | 細胞病理検査における細胞診画像を取得する方法およびシステム |
CN112860810B (zh) * | 2021-02-05 | 2023-07-14 | 中国互联网络信息中心 | 域名多重图嵌入表示方法、装置、电子设备及介质 |
JP2023098287A (ja) * | 2021-12-28 | 2023-07-10 | 株式会社Screenホールディングス | 画像表示方法、コンピュータープログラムおよび記録媒体 |
USD1018585S1 (en) * | 2022-03-15 | 2024-03-19 | Exo Imaging, Inc. | Computer display panel with graphical user interface |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014089499A1 (en) | 2012-12-06 | 2014-06-12 | Clarient Diagnostic Services, Inc. | Selection and display of biomarker expressions |
WO2014150274A1 (en) | 2013-03-15 | 2014-09-25 | Hologic, Inc. | System and method for reviewing and analyzing cytological specimens |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6402707B1 (en) * | 2000-06-28 | 2002-06-11 | Denupp Corporation Bvi | Method and system for real time intra-orally acquiring and registering three-dimensional measurements and images of intra-oral objects and features |
US20030210262A1 (en) | 2002-05-10 | 2003-11-13 | Tripath Imaging, Inc. | Video microscopy system and multi-view virtual slide viewer capable of simultaneously acquiring and displaying various digital views of an area of interest located on a microscopic slide |
US8280483B2 (en) * | 2006-06-14 | 2012-10-02 | Koninklijke Philips Electronics N.V. | Multi-modality medical image viewing |
US8131476B2 (en) * | 2006-08-07 | 2012-03-06 | General Electric Company | System and method for co-registering multi-channel images of a tissue micro array |
US8031924B2 (en) * | 2007-11-30 | 2011-10-04 | General Electric Company | Methods and systems for removing autofluorescence from images |
US8369600B2 (en) * | 2008-03-25 | 2013-02-05 | General Electric Company | Method and apparatus for detecting irregularities in tissue microarrays |
US8824769B2 (en) * | 2009-10-16 | 2014-09-02 | General Electric Company | Process and system for analyzing the expression of biomarkers in a cell |
US8564623B2 (en) * | 2009-12-11 | 2013-10-22 | Molecular Devices, Llc | Integrated data visualization for multi-dimensional microscopy |
EP2617026A4 (en) * | 2010-09-16 | 2015-03-11 | Omnyx LLC | DIGITAL IMAGE PROCESSING OF PATHOLOGY |
US9076198B2 (en) * | 2010-09-30 | 2015-07-07 | Nec Corporation | Information processing apparatus, information processing system, information processing method, program and recording medium |
EP3800495A1 (en) * | 2011-01-18 | 2021-04-07 | Roche Diagnostics Hematology, Inc. | Microscope slide coordinate system registration |
US8970618B2 (en) | 2011-06-16 | 2015-03-03 | University Of Leeds | Virtual microscopy |
JP6035716B2 (ja) * | 2011-08-26 | 2016-11-30 | ソニー株式会社 | 情報処理システム及び情報処理方法 |
US10105115B2 (en) * | 2011-11-25 | 2018-10-23 | Mirada Medical Limited | Method and system for processing medical image datasets |
US8605972B2 (en) * | 2012-03-02 | 2013-12-10 | Sony Corporation | Automatic image alignment |
US8755633B2 (en) * | 2012-03-14 | 2014-06-17 | Sony Corporation | Automated synchronized navigation system for digital pathology imaging |
US9036888B2 (en) * | 2012-04-30 | 2015-05-19 | General Electric Company | Systems and methods for performing quality review scoring of biomarkers and image analysis methods for biological tissue |
US9836865B2 (en) * | 2012-12-06 | 2017-12-05 | Ge Healthcare Biosciences Corp. | Systems and methods for split screen display of biological specimen and for capturing records thereof |
US9576049B2 (en) * | 2012-12-21 | 2017-02-21 | Microsoft Technology Licensing, Llc | Semantic searching using zoom operations |
EP2759921B1 (en) * | 2013-01-25 | 2020-09-23 | Morpho, Inc. | Image display apparatus, image displaying method and program |
CA2909913C (en) | 2013-06-03 | 2019-04-16 | Ventana Medical Systems, Inc. | Image adaptive physiologically plausible color separation |
EP4220564A3 (en) | 2015-09-02 | 2023-08-30 | Ventana Medical Systems, Inc. | Image processing systems and methods for displaying multiple images of a biological specimen |
-
2016
- 2016-08-25 EP EP22214786.0A patent/EP4220564A3/en active Pending
- 2016-08-25 CN CN202210462708.3A patent/CN114972548A/zh active Pending
- 2016-08-25 CA CA2995748A patent/CA2995748A1/en active Pending
- 2016-08-25 EP EP16757236.1A patent/EP3345161B1/en active Active
- 2016-08-25 AU AU2016314704A patent/AU2016314704A1/en not_active Abandoned
- 2016-08-25 JP JP2018511146A patent/JP6823646B2/ja active Active
- 2016-08-25 WO PCT/EP2016/070105 patent/WO2017036921A1/en unknown
- 2016-08-25 CN CN201680050177.XA patent/CN108140249B/zh active Active
-
2018
- 2018-03-02 US US15/910,972 patent/US10552960B2/en active Active
-
2019
- 2019-12-21 US US16/724,227 patent/US11164316B2/en active Active
-
2021
- 2021-01-08 JP JP2021001982A patent/JP7153095B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014089499A1 (en) | 2012-12-06 | 2014-06-12 | Clarient Diagnostic Services, Inc. | Selection and display of biomarker expressions |
WO2014150274A1 (en) | 2013-03-15 | 2014-09-25 | Hologic, Inc. | System and method for reviewing and analyzing cytological specimens |
Also Published As
Publication number | Publication date |
---|---|
CN114972548A (zh) | 2022-08-30 |
JP6823646B2 (ja) | 2021-02-03 |
CN108140249B (zh) | 2022-04-19 |
EP4220564A2 (en) | 2023-08-02 |
CA2995748A1 (en) | 2017-03-09 |
AU2016314704A1 (en) | 2018-02-22 |
US10552960B2 (en) | 2020-02-04 |
US20200143542A1 (en) | 2020-05-07 |
WO2017036921A1 (en) | 2017-03-09 |
EP3345161B1 (en) | 2023-01-25 |
US20180322632A1 (en) | 2018-11-08 |
EP4220564A3 (en) | 2023-08-30 |
EP3345161A1 (en) | 2018-07-11 |
JP2018533116A (ja) | 2018-11-08 |
CN108140249A (zh) | 2018-06-08 |
US11164316B2 (en) | 2021-11-02 |
JP2021073566A (ja) | 2021-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7153095B2 (ja) | 生体試料の複数の画像を表示するための画像処理システムおよび方法 | |
US10275880B2 (en) | Image processing method and system for analyzing a multi-channel image obtained from a biological tissue sample being stained by multiple stains | |
US12094182B2 (en) | Neural network based identification of areas of interest in digital pathology images | |
US11893732B2 (en) | Computer supported review of tumors in histology images and post operative tumor margin assessment | |
US10650221B2 (en) | Systems and methods for comprehensive multi-assay tissue analysis | |
JP2022534156A (ja) | デジタルパソロジーのための人工知能処理システムおよび自動化された事前診断ワークフロー | |
JP2017516992A (ja) | 画像内の生物学的構造及び/又はパターンの検出のためのシステム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210128 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220901 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7153095 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |