JP2022007281A - 画像処理装置、画像処理方法、画像処理プログラム及び診断支援システム - Google Patents

画像処理装置、画像処理方法、画像処理プログラム及び診断支援システム Download PDF

Info

Publication number
JP2022007281A
JP2022007281A JP2020110156A JP2020110156A JP2022007281A JP 2022007281 A JP2022007281 A JP 2022007281A JP 2020110156 A JP2020110156 A JP 2020110156A JP 2020110156 A JP2020110156 A JP 2020110156A JP 2022007281 A JP2022007281 A JP 2022007281A
Authority
JP
Japan
Prior art keywords
image
image processing
information
feature amount
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020110156A
Other languages
English (en)
Inventor
洋平 小林
Yohei Kobayashi
威 國弘
Takeshi Kunihiro
潤一郎 榎
Junichiro Enoki
健治 山根
Kenji Yamane
寛 長谷川
Hiroshi Hasegawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2020110156A priority Critical patent/JP2022007281A/ja
Priority to US18/002,423 priority patent/US20230230398A1/en
Priority to PCT/JP2021/020921 priority patent/WO2021261185A1/ja
Publication of JP2022007281A publication Critical patent/JP2022007281A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Food Science & Technology (AREA)
  • Urology & Nephrology (AREA)
  • Hematology (AREA)
  • Data Mining & Analysis (AREA)
  • Medicinal Chemistry (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Image Processing (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

【課題】形態の見た目の特徴を定量化した特徴量を適切に表示して、識別器の調整項目の設定を容易に行うことができる画像処理装置、画像処理方法、画像処理プログラム及び診断支援システムを提案する。【解決手段】画像処理装置100は、病理画像から抽出される複数の部分領域であって、細胞形態に対応する前記複数の部分領域の指定を受け付けた場合、前記画像から算出される複数の特徴量に対して、複数の部分領域をそれぞれ分類または抽出する際に有効な特徴量の情報を示す補助情報を生成する生成部154と、前記補助情報に応じた調整項目の設定情報を受け付けた場合、前記設定情報を用いて前記画像に対して画像処理を実行する画像処理部155とを備える。【選択図】図10

Description

本発明は、画像処理装置、画像処理方法、画像処理プログラム及び診断支援システムに関する。
ガラススライドに収められた観察対象物を顕微鏡で撮影して、デジタル化した病理画像を生成し、病理画像に対して、各種の画像解析を行うシステムがある。たとえば、観察対象物は、患者から採取された組織や細胞であり、臓器の肉片、唾液、血液等に対応する。
画像解析に関する従来技術として、病理画像を形態検出器に入力して、病理画像に含まれる細胞核、細胞膜等の形態や状態を検出し、形態の特徴を定量化した特徴量を算出する技術がある。病理医や研究者等の熟練者は、かかる特徴量の算出結果と、専門知識に基づき、特定の特徴を有する形態や状態を分類または抽出するための識別器の調整項目の設定を行っている。
特表2018-502279号公報
専門知識に乏しいユーザは、従来技術により算出される形態や状態の特徴を定量化した特徴量と、ユーザの専門知識に基づく特徴とを対応付けることが難しく、改善の余地がある。
そこで、本開示では、形態の見た目の特徴を定量化した特徴量を適切に表示して、識別器の調整項目の設定を容易に行うことができる画像処理装置、画像処理方法、画像処理プログラム及び診断支援システムを提案する。
上記の課題を解決するために、本開示に係る一形態の画像処理装置は、病理画像から抽出される複数の部分領域であって、細胞形態に対応する前記複数の部分領域の指定を受け付けた場合、前記画像から算出される複数の特徴量に対して、複数の部分領域をそれぞれ分類または抽出する際に有効な特徴量の情報を示す補助情報を生成する生成部と、前記補助情報に応じた調整項目の設定情報を受け付けた場合、前記設定情報を用いて前記画像に対して画像処理を実行する画像処理部とを備える。
本実施形態に係る診断支援システムを示す図である。 本実施形態に係る撮像処理を説明するための図である。 本実施形態に係る撮像処理を説明するための図である。 部分画像(タイル画像)の生成処理を説明するための図である。 本実施形態に係る病理画像を説明するための図である。 本実施形態に係る病理画像を説明するための図である。 病理画像の閲覧者による閲覧態様の一例を示す図である。 サーバが有する閲覧履歴記憶部の一例を示す図である。 医療情報システムが有する診断情報記憶部を示す図である。 医療情報システムが有する診断情報記憶部を示す図である。 医療情報システムが有する診断情報記憶部を示す図である。 本実施形態に係る画像処理装置の一例を示す図である。 病理画像DBのデータ構造の一例を示す図である。 特徴量テーブルのデータ構造の一例を示す図である。 病理画像から抽出される部分領域の一例を示す図である。 表示制御部の処理を説明するための図である。 第1の補助情報の一例を示す図である。 第2の補助情報の一例を示す図である。 第2の補助情報のその他の表示例を示す図である。 第3の補助情報の一例を示す図である。 第4の補助情報の一例を示す図である。 画像処理部が実行する分類処理の一例を説明するための図である。 画像処理部が実行する分類処理の一例を説明するための図である。 画像処理部が実行する分類処理の一例を説明するための図である。 本実施形態に係る画像処理装置の処理手順を示すフローチャートである。 画像処理装置のその他の処理を説明するための図である。 画像処理装置のその他の処理を説明するための図である。 画像処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
また、以下に示す項目順序に従って本開示を説明する。
<本実施形態>
1.本実施形態に係るシステムの構成
2.各種情報について
2-1.病理画像
2-2.閲覧履歴情報
2-3.診断情報
3.本実施形態に係る画像処理装置
4.処理手順
5.その他の処理
6.本実施形態に係る画像処理装置の効果
7.ハードウェア構成
8.むすび
(本実施形態)
[1.本実施形態に係るシステムの構成]
まず、図1を用いて、本実施形態に係る診断支援システム1について説明する。図1は、本実施形態に係る診断支援システム1を示す図である。図1に示すように、診断支援システム1は、病理システム10と、画像処理装置100とを含む。
病理システム10は、主に病理医が使用するシステムであり、例えば研究所や病院に適用される。図1に示すように、病理システム10は、顕微鏡11と、サーバ12と、表示制御装置13と、表示装置14とを含む。
顕微鏡11は、光学顕微鏡の機能を有し、ガラススライドに収められた観察対象物を撮像し、デジタル画像である病理画像を取得する撮像装置である。なお、観察対象物とは、例えば、患者から採取された組織や細胞であり、臓器の肉片、唾液、血液等である。
サーバ12は、顕微鏡11によって撮像された病理画像を図示しない記憶部に記憶、保存する装置である。サーバ12は、表示制御装置13から閲覧要求を受け付けた場合に、図示しない記憶部から病理画像を検索し、検索した病理画像を表示制御装置13に送る。また、サーバ12は、画像処理装置100から病理画像の取得要求を受け付けた場合に、記憶部から病理画像を検索し、検索した病理画像を、画像処理装置100に送る。
表示制御装置13は、ユーザから受け付けた病理画像の閲覧要求をサーバ12に送る。そして、表示制御装置13は、サーバ12から受け付けた病理画像を表示するよう表示装置14を制御する。
表示装置14は、例えば、液晶、EL(Electro‐Luminescence)、CRT(Cathode Ray Tube)などが用いられた画面を有する。表示装置14は4Kや8Kに対応していてもよいし、複数の表示装置により形成されてもよい。表示装置14は、表示制御装置13によって表示するよう制御された病理画像を表示する。なお、詳細は後述するが、サーバ12は、表示装置14を介して病理医に観察された病理画像の領域に関する閲覧履歴情報を記憶する。
画像処理装置100は、サーバ12に対して病理画像の取得要求を送り、サーバ12から受け付けた病理画像に対して画像処理を実行する装置である。
[2.各種情報について]
[2-1.病理画像]
上記の通り、病理画像は、顕微鏡11によって観察対象物が撮像されることで生成される。まず、図2及び図3を用いて、顕微鏡11による撮像処理を説明する。図2及び図3は、第1の実施形態に係る撮像処理を説明するための図である。以下に説明する顕微鏡11は、低解像度で撮像するための低解像度撮像部と、高解像度で撮像するための高解像度撮像部とを有する。
図2には、顕微鏡11の撮影可能な領域である撮像領域R10に、観察対象物A10が収められたガラススライドG10が含まれる。ガラススライドG10は、例えば図示しないステージに置かれる。顕微鏡11は、低解像度撮像部により撮像領域R10を撮像することで観察対象物A10が全体的に撮像された病理画像である全体画像を生成する。図2に示すラベル情報L10は、観察対象物A10を識別するための識別情報(例えば、文字列やQRコード(登録商標))が記載される。ラベル情報L10に記載される識別情報と患者を対応付けておくことで、全体画像に対応する患者を特定することが可能になる。図2の例では、識別情報として「#001」が記載されている。なお、ラベル情報L10には、例えば、観察対象物A10の簡単な説明が記載されてもよい。
続いて、顕微鏡11は、全体画像を生成した後に、全体画像から観察対象物A10が存在する領域を特定し、観察対象物A10が存在する領域を所定サイズ毎に分割した各分割領域を高解像度撮像部により順次撮像する。例えば、図3に示すように、顕微鏡11は、最初に領域R11を撮像し、観察対象物A10の一部領域を示す画像である高解像度画像I11を生成する。続いて、顕微鏡11は、ステージを移動させることで、領域R12を高解像度撮像部により撮像し、領域R12に対応する高解像度画像I12を生成する。同様にして、顕微鏡11は、領域R13、R14、・・・に対応する高解像度画像I13、I14、・・・を生成する。図3では領域R18までしか図示していないが、顕微鏡11は、ステージを順次移動させることで、観察対象物A10に対応する全ての分割領域を高解像度撮像部により撮像し、各分割領域に対応する高解像度画像を生成する。
ところで、ステージを移動させる際にガラススライドG10がステージ上で移動することがある。ガラススライドG10が移動すると、観察対象物A10のうち未撮影の領域が発生するおそれがある。顕微鏡11は、図3に示すように、隣り合う分割領域が一部重なるように、高解像度撮像部により撮像することで、ガラススライドG10が移動した場合であっても、未撮影領域の発生を防止することができる。
なお、上述した低解像度撮像部と高解像度撮像部とは、異なる光学系であってもよいし、同一の光学系であってもよい。同一の光学系である場合には、顕微鏡11は、撮像対象に応じて解像度を変更する。また、上記では、ステージを移動させることで撮像領域を変更する例を示したが、顕微鏡11が光学系(高解像度撮像部など)を移動させることで撮像領域を変更してもよい。高解像度撮像部に設けられる撮像素子は、2次元撮像素子(エリアセンサ)であってもよく、1次元撮像素子(ラインセンサ)であってもよい。観察対象物からの光を、対物レンズを用いて集光して撮像しても、分光光学系を用いて波長ごとに分光して撮像してもよい。また、図3では、顕微鏡11が観察対象物A10の中央部から撮像する例を示した。しかし、顕微鏡11は、図3に示した撮像順とは異なる順序で観察対象物A10を撮像してもよい。例えば、顕微鏡11は、観察対象物A10の外周部から撮像してもよい。また、上記では、観察対象物A10が存在する領域のみを高解像度撮像部で撮像する例を示した。しかし、観察対象物A10が存在する領域を正確に抽出できない場合もあるので、顕微鏡11は、図2に示した撮像領域R10又はガラススライドG10の全領域を分割して高解像度撮像部で撮像してもよい。なお、高解像度画像の撮像方法は、どの様な方法を用いてもよい。ステージの停止、移動を繰り返しながら分割領域を撮像して高解像度画像を取得してもよいし、所定の速度でステージを移動しながら分割領域を撮像してストリップ上の高解像度画像を取得してもよい。
続いて、顕微鏡11によって生成された各々の高解像度画像は、所定のサイズに分割される。これにより、高解像度画像から部分画像(以下、タイル画像と表記する)が生成される。この点について、図4を用いて説明する。図4は、部分画像(タイル画像)の生成処理を説明するための図である。図4には、図3に示した領域R11に対応する高解像度画像I11を示す。なお、以下では、サーバ12によって、高解像度画像から部分画像が生成されるものとして説明する。しかし、サーバ12以外の装置(例えば、顕微鏡11内部に搭載される情報処理装置など)によって部分画像が生成されてもよい。
図4に示す例では、サーバ12は、1つの高解像度画像I11を分割することで、100個のタイル画像T11、T12、・・・を生成する。例えば、高解像度画像I11の解像度が2560×2560[pixel:ピクセル]である場合、サーバ12は、高解像度画像I11から、解像度が256×256[pixel:ピクセル]である100個のタイル画像T11、T12、・・・を生成する。同様にして、サーバ12は、他の高解像度画像も同様のサイズに分割することでタイル画像を生成する。
なお、図4の例において、領域R111、R112、R113、R114は、隣り合う他の高解像度画像(図4には図示しない)と重複する領域である。サーバ12は、重複する領域をテンプレートマッチング等の技法により位置合わせを行うことで、互いに隣り合う高解像度画像にスティッチング処理を施す。この場合、サーバ12は、スティッチング処理後に高解像度画像を分割することでタイル画像を生成してもよい。または、サーバ12は、スティッチング処理前に、領域R111、R112、R113及びR114以外の領域のタイル画像を生成し、スティッチング処理後に、領域R111、R112、R113及びR114のタイル画像を生成してもよい。
このようにして、サーバ12は、観察対象物A10の撮像画像の最小単位となるタイル画像を生成する。そして、サーバ12は、最小単位のタイル画像を順次合成することで、階層の異なるタイル画像を生成する。具体的には、サーバ12は、隣り合う所定数のタイル画像を合成することで、1つのタイル画像を生成する。この点について、図5及び図6を用いて説明する。図5及び図6は、第1の実施形態に係る病理画像を説明するための図である。
図5の上段には、サーバ12によって各高解像度画像から生成された最小単位のタイル画像群を示す。図5の上段の例において、サーバ12は、タイル画像のうち、互いに隣り合う4つのタイル画像T111、T112、T211、T212を合成することで、1つのタイル画像T110を生成する。例えば、タイル画像T111、T112、T211、T212の解像度がそれぞれ256×256である場合、サーバ12は、解像度が256×256であるタイル画像T110を生成する。同様にして、サーバ12は、互いに隣り合う4つのタイル画像T113、T114、T213、T214を合成することで、タイル画像T120を生成する。このようにして、サーバ12は、最小単位のタイル画像を所定数ずつ合成したタイル画像を生成する。
また、サーバ12は、最小単位のタイル画像を合成した後のタイル画像のうち、互いに隣り合うタイル画像を更に合成したタイル画像を生成する。図5の例において、サーバ12は、互いに隣り合う4つのタイル画像T110、T120、T210、T220を合成することで、1つのタイル画像T100を生成する。例えば、タイル画像T110、T120、T210、T220の解像度が256×256である場合、サーバ12は、解像度が256×256であるタイル画像T100を生成する。例えば、サーバ12は、互いに隣り合う4つのタイル画像を合成した解像度512×512の画像から、4画素平均や、重み付けフィルタ(近い画素を遠い画素よりも強く反映する処理)や、1/2間引き処理等を施すことにより、解像度が256×256であるタイル画像を生成する。
サーバ12は、このような合成処理を繰り返すことで、最終的には、最小単位のタイル画像の解像度と同様の解像度を有する1つのタイル画像を生成する。例えば、上記例のように、最小単位のタイル画像の解像度が256×256である場合、サーバ12は、上述した合成処理を繰り返すことにより、最終的に解像度が256×256である1つのタイル画像T1を生成する。
図6に、図5に示したタイル画像を模式的に示す。図6に示した例では、最下層のタイル画像群は、サーバ12によって生成された最小単位のタイル画像である。また、下から2階層目のタイル画像群は、最下層のタイル画像群が合成された後のタイル画像である。そして、最上層のタイル画像T1は、最終的に生成される1つのタイル画像であることを示す。このようにして、サーバ12は、病理画像として、図6に示すピラミッド構造のような階層を有するタイル画像群を生成する。
なお、図5に示す領域Dは、表示装置14等のディスプレイ画面に表示される領域の一例を示す。例えば、表示装置が表示可能な解像度が、縦3個分のタイル画像であり、横4個分のタイル画像であるものとする。この場合、図5に示す領域Dのように、表示対象のタイル画像が属する階層によって、表示装置に表示される観察対象物A10の詳細度が変わる。例えば、最下層のタイル画像が用いられる場合には、観察対象物A10の狭い領域が詳細に表示される。また、上層のタイル画像が用いられるほど観察対象物A10の広い領域が粗く表示される。
サーバ12は、図6に示したような各階層のタイル画像を図示しない記憶部に記憶する。例えば、サーバ12は、各タイル画像を一意に識別可能なタイル識別情報(部分画像情報の一例)とともに、各タイル画像を記憶する。この場合、サーバ12は、他の装置(例えば、表示制御装置13)からタイル識別情報を含むタイル画像の取得要求を受け付けた場合に、タイル識別情報に対応するタイル画像を他の装置へ送信する。また、例えば、サーバ12は、各階層を識別する階層識別情報と、同一階層内で一意に識別可能なタイル識別情報とともに、各タイル画像を記憶してもよい。この場合、サーバ12は、他の装置から階層識別情報とタイル識別情報を含むタイル画像の取得要求を受け付けた場合に、階層識別情報に対応する階層に属するタイル画像のうち、タイル識別情報に対応するタイル画像を他の装置へ送信する。
なお、サーバ12は、図6に示したような各階層のタイル画像をサーバ12以外の他の記憶装置に記憶してもよい。例えば、サーバ12は、クラウドサーバ等に各階層のタイル画像を記憶してもよい。また、図5及び図6に示したタイル画像の生成処理はクラウドサーバ等で実行されてもよい。
また、サーバ12は、全ての階層のタイル画像を記憶しなくてもよい。例えば、サーバ12は、最下層のタイル画像のみを記憶してもよいし、最下層のタイル画像と最上層のタイル画像のみを記憶してもよいし、所定の階層(例えば、奇数番目の階層、偶数番目の階層など)のタイル画像のみを記憶してもよい。このとき、サーバ12は、記憶していない階層のタイル画像を他の装置から要求された場合には、記憶しているタイル画像を動的に合成することで、他の装置から要求されたタイル画像を生成する。このように、サーバ12は、保存対象のタイル画像を間引くことで、記憶容量の圧迫を防止することができる。
また、上記例では撮像条件について言及しなかったが、サーバ12は、撮像条件毎に、図6に示したような各階層のタイル画像を記憶してもよい。撮像条件の例としては、被写体(観察対象物A10など)に対する焦点距離が挙げられる。例えば、顕微鏡11は、同一の被写体に対して焦点距離を変更しながら撮像してもよい。この場合、サーバ12は、焦点距離毎に、図6に示したような各階層のタイル画像を記憶してもよい。なお、焦点距離を変更する理由は、観察対象物A10によっては半透明であるため、観察対象物A10の表面を撮像するために適した焦点距離や、観察対象物A10の内部を撮像するために適した焦点距離があるからである。言い換えれば、顕微鏡11は、焦点距離を変更することで、観察対象物A10の表面を撮像した病理画像や、観察対象物A10の内部を撮像した病理画像を生成することができる。
また、撮像条件の他の例として、観察対象物A10に対する染色条件が挙げられる。具体的に説明すると、病理診断では、観察対象物A10のうち特定の部分(例えば、細胞の核など)に蛍光試薬を用いて染色を行う場合がある。蛍光試薬とは、例えば、特定の波長の光が照射されると励起して発光する物質である。そして、同一の観察対象物A10に対して異なる発光物が染色される場合がある。この場合、サーバ12は、染色された発光物毎に、図6に示したような各階層のタイル画像を記憶してもよい。
また、上述したタイル画像の数や解像度は一例であってシステムによって適宜変更可能である。例えば、サーバ12が合成するタイル画像の数は4つに限られない。例えば、サーバ12は、3×3=9個のタイル画像を合成する処理を繰り返してもよい。また、上記例ではタイル画像の解像度が256×256である例を示したが、タイル画像の解像度は256×256以外であってもよい。
表示制御装置13は、上述した階層構造のタイル画像群に対応可能なシステムを採用するソフトウェアを用い、ユーザの表示制御装置13を介した入力操作に応じて、階層構造のタイル画像群から所望のタイル画像を抽出し、これを表示装置14に出力する。具体的には、表示装置14は、ユーザにより選択された任意の解像度の画像のうちの、ユーザにより選択された任意の部位の画像を表示する。このような処理により、ユーザは、観察倍率を変えながら観察対象物を観察しているような感覚を得ることができる。すなわち、表示制御装置13は仮想顕微鏡として機能する。ここでの仮想的な観察倍率は、実際には解像度に相当する。
[2-2.閲覧履歴情報]
次に、図7を用いて、サーバ12に保存される病理画像の閲覧履歴情報について説明する。図7は、病理画像の閲覧者による閲覧態様の一例を示す図である。図7に示した例では、病理医等の閲覧者が、病理画像I10のうち、領域D1、D2、D3、・・・、D7の順に閲覧したものとする。この場合、表示制御装置13は、閲覧者による閲覧操作に従って、最初に領域D1に対応する病理画像をサーバ12から取得する。サーバ12は、表示制御装置13からの要求に応じて、領域D1に対応する病理画像を形成する1以上のタイル画像を記憶部から取得し、取得した1以上のタイル画像を表示制御装置13へ送信する。そして、表示制御装置13は、サーバ12から取得した1以上のタイル画像から形成される病理画像を表示装置14に表示する。例えば、表示制御装置13は、タイル画像が複数である場合には、複数のタイル画像を並べて表示する。同様にして、表示制御装置13は、閲覧者によって表示領域の変更操作が行われるたびに、表示対象の領域(領域D2、D3、・・・、D7など)に対応する病理画像をサーバ12から取得し、表示装置14に表示する。
図7の例では、閲覧者は、最初に比較的広い領域D1を閲覧し、領域D1内に注意深く観察する領域がなかったため、閲覧領域を領域D2に移動させている。そして、閲覧者は、領域D2内に注意深く観察したい領域があったため、領域D2の一部領域を拡大して領域D3を閲覧している。そして、閲覧者は、さらに領域D2の一部領域である領域D4へ移動させている。そして、閲覧者は、領域D4内にさらに注意深く観察したい領域があったため、領域D4の一部領域を拡大して領域D5を閲覧している。このようにして、閲覧者は、領域D6、D7についても閲覧している。例えば、領域D1、D2、D7に対応する病理画像が1.25倍率の表示画像であり、領域D3、D4に対応する病理画像が20倍率の表示画像であり、領域D5、D6に対応する病理画像が40倍率の表示画像である。表示制御装置13は、サーバ12に記憶されている階層構造のタイル画像群のうち、各倍率に対応する階層のタイル画像を取得して表示することになる。例えば、領域D1及びD2に対応するタイル画像の階層は、領域D3に対応するタイル画像の階層よりも上(すわなち、図6に示したタイル画像T1に近い階層)になる。
上記のように病理画像が閲覧されている間、表示制御装置13は、所定のサンプリング周期で閲覧情報を取得する。具体的には、表示制御装置13は、所定のタイミング毎に、閲覧された病理画像の中心座標と表示倍率を取得し、取得した閲覧情報をサーバ12の記憶部に格納する。
この点について、図8を用いて説明する。図8は、サーバ12が有する閲覧履歴記憶部12aの一例を示す図である。図8に示すように、閲覧履歴記憶部12aは、「サンプリング」、「中心座標」、「倍率」、「時間」といった情報を記憶する。「サンプリング」は、閲覧情報を記憶するタイミングの順番を示す。「中心座標」は、閲覧された病理画像の位置情報を示す。ここの例では、中心座標は、閲覧された病理画像の中心位置が示す座標であって、最下層のタイル画像群の座標系の座標に該当する。「倍率」は、閲覧された病理画像の表示倍率を示す。「時間」は、閲覧が開始されてからの経過時間を示す。図8の例では、サンプリング周期が30秒であることを示す。すなわち、表示制御装置13は、30秒毎に閲覧情報を閲覧履歴記憶部12aに保存する。ただし、この例に限られず、サンプリング周期は、例えば0.1~10秒であってもよいし、この範囲外であってもよい。
図8の例において、サンプリング「1」は図7に示す領域D1の閲覧情報を示し、サンプリング「2」は領域D2の閲覧情報を示し、サンプリング「3」及び「4」は領域D3の閲覧情報を示し、サンプリング「5」は領域D4の閲覧情報を示し、サンプリング「6」、「7」及び「8」は領域D5の閲覧情報を示す。つまり、図8の例では、領域D1が30秒程度閲覧され、領域D2が30秒程度閲覧され、領域D3が60秒程度閲覧され、領域D4が30秒程度閲覧され、領域D5が90秒程度閲覧されたことを示す。このように、閲覧履歴情報から、各領域の閲覧時間を抽出することができる。
また、閲覧履歴情報から各領域を閲覧した回数を抽出することができる。例えば、表示領域の変更操作(例えば、表示領域の移動操作、表示サイズの変更操作)が行われるたびに、表示された病理画像の各画素の表示回数が1回ずつ増加するものとする。例えば、図7に示した例において、最初に領域D1が表示された場合、領域D1に含まれる各画素の表示回数は1回となる。次に領域D2が表示された場合には、領域D1と領域D2との双方に含まれる各画素の表示回数は2回となり、領域D1には含まれず領域D2に含まれる各画素の表示回数は1回となる。閲覧履歴記憶部12aの中心座標及び倍率を参照することで表示領域を特定可能であるので、閲覧履歴記憶部12aに記憶されている閲覧履歴情報を分析することで、病理画像の各画素(各座標ともいえる)が表示された回数を抽出することができる。
表示制御装置13は、閲覧者から所定時間(例えば5分)、表示位置を変更する操作が行われなかった場合には、閲覧情報の記憶処理を中断してもよい。また、上記例では、中心座標と倍率によって閲覧された病理画像を閲覧情報として記憶する例を示したが、この例に限られず、閲覧情報は、閲覧された病理画像の領域を特定可能な情報であれば如何なる情報であってもよい。例えば、表示制御装置13は、閲覧された病理画像に対応するタイル画像を識別するタイル識別情報や、閲覧された病理画像に対応するタイル画像の位置示す情報を、病理画像の閲覧情報として記憶してもよい。また、図8では、図示することを省略したが、閲覧履歴記憶部12aには、患者、カルテ等を識別する情報が記憶される。すなわち、図8に示した閲覧履歴記憶部12aは、閲覧情報と、患者やカルテ等と対応付け可能に記憶される。
[2-3.診断情報]
次に、図9A~図9Cを用いて、医療情報システム30に記憶される診断情報について説明する。図9A~図9Cは、医療情報システム30が有する診断情報記憶部を示す図である。図9A~図9Cでは、それぞれ検査対象の臓器毎に異なるテーブルで診断情報を記憶する例を示す。例えば、図9Aは、乳がん検査に関する診断情報を記憶するテーブルの例を示し、図9Bは、肺がん検査に関する診断情報を記憶するテーブルの例を示し、図9Cは、大腸検査に関する診断情報を記憶するテーブルの例を示す。
図9Aに示す診断情報記憶部30Aは、「患者ID」、「病理画像」、「診断結果」、「グレード」、「組織型」、「遺伝子検査」、「超音波検査」、「投薬」といった情報を記憶する。「患者ID」は、患者を識別するための識別情報を示す。「病理画像」は、病理医が診断時に保存した病理画像を示す。「病理画像」には、画像自体ではなく、全体画像に対する、保存対象の画像領域を示す位置情報(中心座標と倍率など)が記憶されてもよい。「診断結果」は、病理医による診断結果であり、例えば、病変部位の有無、病変部位の種類を示す。「グレード」は、病気部位の進行度を示す。「組織型」は、病気部位の種類を示す。「遺伝子検査」は、遺伝子検査の結果を示す。「超音波検査」は、超音波検査の結果を示す。投薬は、患者への投薬に関する情報を示す。
図9Bに示す診断情報記憶部30Bは、図9Aに示した診断情報記憶部30Aに記憶される「超音波検査」の代わりに、肺がん検査で行われる「CT検査」に関する情報を記憶する。図9Cに示す診断情報記憶部30Cは、図9Aに示した診断情報記憶部30Aに記憶される「超音波検査」の代わりに、大腸検査で行われる「内視鏡検査」に関する情報を記憶する。
図9A~図9Cの例において、「診断結果」に「正常」が記憶されている場合には、病理診断の結果が陰性であったことを示し、「診断結果」に「正常」以外の情報が記憶されている場合には、病理診断の結果が陽性であったことを示す。なお、図9A~図9Cでは、患者IDについて、各項目(病理画像、診断結果、グレード、組織型、遺伝子検査、超音波検査、投薬)を対応付けて記憶する場合について説明したが、診断、検査に関わる情報を、患者IDに対応付けて記憶すればよく、全ての項目が必要なわけではない。
[3.本実施形態に係る画像処理装置]
次に、本実施形態に係る画像処理装置100について説明する。図10は、本実施形態に係る画像処理装置の一例を示す図である。図10に示すように、この画像処理装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。通信部110は、図示しないネットワークと有線又は無線で接続され、ネットワークを介して、病理システム10等との間で情報の送受信を行う。後述する制御部150は、通信部110を介して、これらの装置との間で情報の送受信を行う。
入力部120は、各種の情報を、画像処理装置100に入力する入力装置である。入力部111は、キーボードやマウス、タッチパネル等に対応する。
表示部130は、制御部150から出力される情報を表示する表示装置である。表示部130は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、タッチパネル等に対応する。
記憶部140は、病理画像DB(Data Base)141と、特徴量テーブル142とを有する。記憶部140は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
病理画像DB141は、複数の病理画像を格納するデータベースである。図11は、病理画像DBのデータ構造の一例を示す図である。図11に示すように、この病理画像DB141は、「患者ID」と、「病理画像」とを有する。患者IDは、患者を一意に識別する情報である。病理画像は、病理医が診断時に保存した病理画像を示す。病理画像は、サーバ12から送信される。病理画像DB141は、患者ID、病理画像の他に、図9A~9Cで説明した「診断結果」、「グレード」、「組織型」、「遺伝子検査」、「超音波検査」、「投薬」といった情報を保持していてもよい。
特徴量テーブル142は、病理画像から抽出される細胞核や細胞膜に対応する部分領域の特徴量のデータを保持するテーブルである。図12は、特徴量テーブルのデータ構造の一例を示す図である。図12に示すように、この特徴量テーブル142は、領域IDと、座標と、特徴量とを対応付ける。領域IDは、部分領域を一意に識別する情報である。座標は、部分領域の座標(位置)を示すものである。
特徴量は、部分領域から算出される病理画像内に存在する組織形態や状態を含む様々なパターンの特性を定量化したものである。たとえば、特徴量は、CNN(Convolutional Neural Network)等のNN(Neural Network)から出力される特徴量が対応する。また、特徴量は、細胞核または細胞核の色特徴(輝度、彩度、波長、スペクトル等)、形状特徴(円形度、周長等)、密度、特定の形態からの距離、局所特徴量、構造抽出処理(核検出等)、それらを集計した情報(細胞密度や配向等)等に対応する。ここでは、各特徴量を、特徴量f~f10によって示す。なお、特徴量は、特徴量f~f10以外の特徴量fを更に含んでいてもよい。
図10の説明に戻る。制御部150は、取得部151、解析部152、表示制御部153、生成部154、画像処理部155を有する。制御部150は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)によって、画像処理装置100内部に記憶されたプログラム(画像処理プログラムの一例)がRAM(random Access Memory)等を作業領域として実行されることにより実現される。また、制御部150は、例えばASIC(Application specific Integrated Circuit)やFPGA(Field Programmable gate Array)等の集積回路により実行されてもよい。
取得部151は、サーバ12に対して病理画像の取得要求を送り、サーバ12から病理画像を取得する処理部である。取得部151は、取得した病理画像を、病理画像DB141に登録する。ユーザは、入力部120を操作して、取得対象とする病理画像を取得部151に指示してもよい。この場合、取得部151は、指示された病理画像の取得要求をサーバ12に送り、指示された病理画像を取得する。
取得部151が取得する病理画像は、WSI(Whole Slide Imaging)に対応する。病理画像には、病理画像の一部を指し示すアノテーションデータが添付されていてもよい。アノテーションデータは、病理医や研究者が示した腫瘍領域等を示す。WSIは1枚に限らず、連続切片等複数のWSIが含まれていてもよい。また、病理画像には、患者IDの他に、図9A~9Cで説明した「診断結果」、「グレード」、「組織型」、「遺伝子検査」、「超音波検査」、「投薬」といった情報が添付されていてもよい。
解析部152は、病理画像DB141に格納された病理画像を解析して特徴量を算出する処理部である。ユーザは、入力部120を操作して、解析対象となる病理画像を指定してもよい。
解析部152は、病理画像DB141から、ユーザに指定された病理画像を取得し、取得した病理画像に対してセグメンテーションを実行することで、病理画像から複数の部分領域(パターン)を抽出する。複数の部分領域は、個々の細胞や細胞器官(細胞核、細胞膜等)、細胞や細胞器官の集合による細胞形態が含まれる。また、部分領域は、細胞形態が正常の場合、特定の疾患である場合に有する特異的特徴に対応する領域であってもよい。ここで、セグメンテーションは、画像から画素単位で部位のオブジェクトのラベルを付与する技術である。たとえば、正解ラベルをもつ画像データセットを畳み込みニューラルネットワークに学習させることで学習済みモデルを生成し、かかる学習済みモデルに、処理を行いたい画像(病理画像)を入力することで、出力として画素単位でオブジェクトクラスのラベルが割り振られたラベル画像を得ることができ、かかるラベルを参照することで、画素毎に部分領域を抽出することができる。
図13は、病理画像から抽出される部分領域の一例を示す図である。図13に示すように、病理画像Ima1から、複数の部分領域「P」が抽出されている。以下の説明では、複数の部分領域を特に区別しない場合には、単に部分領域と表記する。解析部152は、部分領域に領域IDを割り当て、部分領域の座標を特定する。解析部152は、領域IDに対応付けて、部分領域の座標を、特徴量テーブル142に登録する。
続いて、解析部152は、部分領域から特徴量を算出する。たとえば、解析部152は、部分領域の画像をCNNに入力することで、各特徴量を算出する。また、解析部152は、部分領域の画像を基にして、色特徴(輝度値、染色強度等)、形状特徴(円形度、周長など)、密度、特定の形態からの距離、局所特徴量を算出する。解析部152が、色特徴、形状特徴、密度、特定の形態からの距離、局所特徴量を算出する処理は、如何なる従来技術を用いてもよい。解析部152は、領域IDに対応付けて、部分領域の特徴量(たとえば、特徴量f~f10)を、特徴量テーブル142に登録する。
解析部152は、ユーザから解析対象となる病理画像の指示を受け付けてから、上記処理を実行してもよいし、事前に全体の病理画像を解析した結果から、部分領域の特徴量を算出してもよい。また、病理システム10が、病理画像の全体に対する解析を行い、病理画像に病理システム10の解析結果が添付されていてもよく、解析部152は、病理システム10の解析結果を用いて、部分領域の特徴量を算出してもよい。
表示制御部153は、解析部152によって抽出された部分領域(組織形態を含む様々なパターン)を示す病理画像の画面情報を、表示部130に表示させ、部分領域の指定を受け付ける処理部である。たとえば、表示制御部153は、各部分領域の座標を、特徴量テーブル142から取得し、画面情報に反映する。
図14は、表示制御部の処理を説明するための図である。図14に示すように、表示制御部153は、画面情報Dis1を、部分領域を指定可能にして表示部130に表示させる。ユーザは、入力部120を操作して、複数の部分領域から、一部の部分領域を指定し、カテゴリを指定する。たとえば、第1カテゴリとして部分領域PA1,PA2,PA3,PA4が選択されたものとする。第2カテゴリとして部分領域P,PB2,PB3が選択されたものとする。第3カテゴリとして、部分領域PC1,PC2が選択されたものとする。以下の説明では、適宜、部分領域PA1,PA2,PA3,PA4をまとめて、部分領域「P」と表記する。適宜、部分領域P,PB2,PB3をまとめて、部分領域「P」と表記する。適宜、部分領域PC1,PC2をまとめて、部分領域「P」と表記する。表示制御部153は、同一のカテゴリに属する部分領域を、同一の色で表示してもよい。
図14に示す例では、表示制御部153が、部分領域の指定を受け付ける処理は上記の処理に限定されない。たとえば、ユーザが一つの部分領域を指定した場合に、表示制御部153は、指定された部分領域の形状に類似する他の部分領域を自動で選択し、同一のカテゴリに属する部分領域として判定してもよい。
図14に示す例では、セグメンテーションで抽出された部分領域を選択する場合について説明したが、ユーザが指定する領域は、ユーザによって描画される自由領域または幾何領域でもよい。表示制御部153は、病理医や研究者によって事前に指定された腫瘍領域等のアノテーション領域を、指定された部分領域として取り扱ってもよい。また、表示制御部153は、特定の組織を抽出するための抽出器を用いて、抽出器によって抽出される組織の部分領域を、指定された部分領域としてもよい。
表示制御部153は、指定された部分領域の領域IDおよび部分領域のカテゴリの情報を、生成部154に出力する。以下の説明では、指定された部分領域の領域IDを適宜「指定領域ID」と表記し、指定領域IDには、ユーザに指定されたカテゴリの情報が対応付けられているものとする。なお、表示制御部153は、後述する生成部154に生成される第1~第4の補助情報を、表示部130に出力して表示させる。
生成部154は、指定領域IDに対応する特徴量を、特徴量テーブル142から取得し、病理画像の特徴量に関する補助情報を生成する処理部である。補助情報には、分類または抽出したい領域の特徴を表現する上で重要な特徴量を識別可能とするものや、特徴量の分布等が含まれる。たとえば、生成部154は、補助情報として、第1~第4の補助情報を生成する。
生成部154が「第1の補助情報」を生成する処理について説明する。生成部154は、病理画像から算出される複数の特徴量(たとえば、特徴量f~f10)に対して、指定領域IDの部分領域をそれぞれカテゴリ毎に分類または抽出する際の寄与率(または重要度)を計算し、第1の補助情報を生成する。
図14に示したように、第1カテゴリの部分領域P、第2カテゴリの部分領域P、第3カテゴリの部分領域Pが指定された場合、生成部154は、部分領域P、P、Pをそれぞれ分類するための寄与率を、因子分析や予測分析等を基にして算出する。たとえば、因子分析の結果、特徴量f~f10のうち、特徴量fの寄与率が大きくなる場合には、部分領域P、P、Pをそれぞれ分類する際に、特徴量fに重きをおくことが適切であることを意味する。生成部154は、図15に示す第1の補助情報を生成する。
図15は、第1の補助情報の一例を示す図である。図15に示すように、第1の補助情報では、特徴量f~f10と、寄与率とを対応付ける。図15に示す例では、特徴量f~f10のうち、特徴量f,f,fの寄与率が大きくなっているため、部分領域P、P、Pをそれぞれ分類する場合、特徴量f,f,fを用いることが適切であることを意味する。生成部154は、第1の補助情報を表示制御部153に出力して、第1の補助情報の表示を要求する。表示制御部153は、第1の補助情報を、表示部130に表示させる。なお、表示制御部153は、第1の補助情報を表示する場合に、各特徴量を、寄与率の大きさに応じて、ソートして表示させてもよい。
生成部154が「第2の補助情報」を生成する処理について説明する。生成部154は、指定領域IDに対応する各特徴量と、各特徴量について予め設定される閾値とを比較し、閾値以上となる特徴量を特定する処理を、カテゴリ毎に実行することで、第2の補助情報を生成する。
図16は、第2の補助情報の一例を示す図である。生成部154は、第1カテゴリに対応する指定領域IDの特徴量f~f10と、各特徴量の閾値Th~Th10とをそれぞれ比較する。たとえば、特徴量fが閾値Th以上となり、特徴量fが閾値Th以上となり、特徴量fが閾値Th以上となり、特徴量fが閾値Th以上となる場合、生成部154は、第1カテゴリの特性を表す特徴量として、特徴量f,f,f,fを設定する。
生成部154は、第2カテゴリに対応する指定領域IDの特徴量f~f10と、各特徴量の閾値Th~Th10とをそれぞれ比較する。たとえば、特徴量fが閾値Th以上となり、特徴量fが閾値Th以上となる場合、生成部154は、第2カテゴリの特性を表す特徴量として、特徴量f,fを設定する。
生成部154は、第3カテゴリに対応する指定領域IDの特徴量f~f10と、各特徴量の閾値Th~Th10とをそれぞれ比較する。たとえば、特徴量fが閾値Th以上となり、特徴量fが閾値Th以上となり、特徴量fが閾値Th以上となる場合、生成部154は、第3カテゴリの特性を表す特徴量として、特徴量f,f,fを設定する。
生成部154は、上記処理を実行することで、図16に示す第2の補助情報を生成する。図16に示す例では、第1カテゴリの部分領域を抽出する場合には、特徴量f,f,f,fが適していることを意味する。第2カテゴリの部分領域を抽出する場合には、特徴量f,fが適していることを意味する。第3カテゴリの部分領域を抽出する場合には、特徴量f,f,fが適していることを意味する。
生成部154は、第2の補助情報を表示制御部153に出力して、第2の補助情報の表示を要求する。表示制御部153は、第2の補助情報を、表示部130に表示させる。なお、表示制御部153は、図17に示す表形式によって、第2の補助情報を、表示部130に表示させてもよい。
図17は、第2の補助情報のその他の表示例を示す図である。図17に示す表示例の第1カテゴリの特性を示す特徴量の行において、特徴量f,f,f,fがマル印で示され、特徴量f,f,f,fが適していることを示す。第2カテゴリの特性を示す特徴量の行において、特徴量f,f,fがマル印で示され、特徴量f,f,fが適していることを示す。第3カテゴリの特性を示す特徴量の行において、特徴量f,f,fがマル印で示され、特徴量f,f,fが適していることを示す。図16の表示と比較して、図17では、適している特徴量と、適していない特徴量とを容易に把握することができる。
生成部154が「第3の補助情報」を生成する処理について説明する。生成部154は、各特徴量f~f10のうち、第1の特徴量fと、第2の特徴量fとを軸とする特徴空間に、各部分領域の分布を配置した第3の補助情報を生成する。第1の特徴量fおよび第2の特徴量fは、事前に設定されていてもよいし、図15の第1の補助情報を生成する場合に算出した寄与率等を基にして、上位の寄与率に対応する特徴量を、第1の特徴量fおよび第2の特徴量fとしてもよい。
図18は、第3の補助情報の一例を示す図である。図18に示す特徴空間Gr1の縦軸は、第1の特徴量fに対応する軸であり、横軸は、第2の特徴量fに対応する軸である。生成部154は、特徴量テーブル142を参照し、各部分領域の第1の特徴量fおよび第2の特徴量fを特定し、特徴空間Gr1上に、各部分領域に対応する点をプロットする。また、生成部154は、各部分領域に対応する点のうち、指定領域IDに対応する部分領域の点を識別可能に設定する。
たとえば、生成部154は、図14で指定された第1カテゴリの部分領域PA1が、図18の点do1に対応する場合には、第1カテゴリに属することを示す第1の色によって、点do1を配置する。図14で指定された第1カテゴリの部分領域PA2が、図18の点do2に対応する場合には、第1カテゴリに属することを示す第1の色によって、点do1を配置する。
生成部154は、図14で指定された第2カテゴリの部分領域PB1が、図18の点do3に対応する場合には、第2カテゴリに属することを示す第2の色によって、点do3を配置する。図14で指定された第3カテゴリの部分領域PC1が、図18の点do4に対応する場合には、第3カテゴリに属することを示す第3の色によって、点do4を配置する。第1の色、第2の色、第3の色は、それぞれ異なる色であるものとする。
生成部154は、第3の補助情報を表示制御部153に出力して、第3の補助情報の表示を要求する。表示制御部153は、第3の補助情報を、表示部130に表示させる。なお、生成部154は、多次元の特徴量においては、主成分分析やTSNE等の次元圧縮を用いて求められた低次元特徴量を算出し、低次元特徴量の特徴空間において、各部分領域に対応する点をプロットしてもよい。
生成部154が「第4の補助情報」を生成する処理について説明する。生成部154は、特徴量テーブル142を基にして、各特徴量f~f10のヒストグラムを、第4の補助情報として生成する。
図19は、第4の補助情報の一例を示す図である。図19では、一例として、各特徴量のヒストグラムh1-1~h4-1を示す。生成部154は、各ヒストグラムにおいて、指定領域IDに対応する部分領域の特徴量に対応する階級値の度数を識別可能に設定してもよい。
ヒストグラムh1-1は、特徴量fに対応するヒストグラムである。生成部154は、第1カテゴリの部分領域PA1の特徴量fが、階級値cm1に対応する場合には、階級値cm1に対応する度数の色を、第1の色に設定する。生成部154は、第2カテゴリの部分領域PB1の特徴量fが、階級値cm2に対応する場合には、階級値cm2に対応する度数の色を、第2の色に設定する。生成部154は、第3カテゴリの部分領域PC1の特徴量fが、階級値cm3に対応する場合には、階級値cm3に対応する度数の色を、第3の色に設定する。
ヒストグラムh2-1は、特徴量fに対応するヒストグラムである。生成部154は、第1カテゴリの部分領域PA1の特徴量fが、階級値cm1に対応する場合には、階級値cm1に対応する度数の色を、第1の色に設定する。生成部154は、第2カテゴリの部分領域PB1の特徴量fが、階級値cm2に対応する場合には、階級値cm2に対応する度数の色を、第2の色に設定する。生成部154は、第3カテゴリの部分領域PC1の特徴量fが、階級値cm3に対応する場合には、階級値cm3に対応する度数の色を、第3の色に設定する。
ヒストグラムh3-1は、特徴量fに対応するヒストグラムである。生成部154は、第1カテゴリの部分領域PA1の特徴量fが、階級値cm1に対応する場合には、階級値cm1に対応する度数の色を、第1の色に設定する。生成部154は、第2カテゴリの部分領域PB1の特徴量fが、階級値cm2に対応する場合には、階級値cm2に対応する度数の色を、第2の色に設定する。生成部154は、第3カテゴリの部分領域PC1の特徴量fが、階級値cm3に対応する場合には、階級値cm3に対応する度数の色を、第3の色に設定する。
ヒストグラムh4-1は、特徴量fに対応するヒストグラムである。生成部154は、第1カテゴリの部分領域PA1の特徴量fが、階級値cm1に対応する場合には、階級値cm1に対応する度数の色を、第1の色に設定する。生成部154は、第2カテゴリの部分領域PB1の特徴量fが、階級値cm2に対応する場合には、階級値cm2に対応する度数の色を、第2の色に設定する。生成部154は、第3カテゴリの部分領域PC1の特徴量fが、階級値cm3に対応する場合には、階級値cm3に対応する度数の色を、第3の色に設定する。
図示を省略するが、生成部154は、特徴量f~f10に対応するヒストグラムも同様にして生成する。生成部154は、第4の補助情報を表示制御部153に出力して、第4の補助情報の表示を要求する。表示制御部153は、第4の補助情報を、表示部130に表示させる。
ここで、表示制御装置153は、第1~4の補助情報を全て表示部130に表示させてもよいし、一部の補助情報のみを表示させてもよい。また、ユーザは、入力部120を操作して、表示対象とする補助情報を指定してもよい。以下の説明では、第1~4の補助情報を特に区別しない場合には、単に、補助情報と表記する。
また、ユーザは、補助情報を参照した後に、入力部130を操作して、図14に示した画面情報Dis1を再度参照し、部分領域および部分領域のカテゴリを選択し直してもよい。表示制御部153は、部分領域および部分領域のカテゴリが選択し直された場合には、新たな指定領域IDを、生成部154に出力する。生成部154は、新たな指定領域IDを基にして、新たな補助情報を生成し、表示制御部153は、新たな補助情報を、表示部130に出力して表示させる。表示制御部153および生成部154は、ユーザに、部分領域および部分領域のカテゴリを選択し直される度に、上記処理を繰り返し実行する。
図10の説明に戻る。画像処理部155は、ユーザから病理画像の指定を受け付けた場合に、病理画像に対する各種の画像処理を実行する処理部である。たとえば、画像処理部155は、パラメータを基にして、病理画像に含まれる部分領域を特徴量に応じて分類する処理、特定の特徴量を有する部分領域を抽出する処理などを実行する。パラメータは、補助情報を参照したユーザによって設定されるものである。
画像処理部155が、病理画像に含まれる部分領域を特徴量に応じて分類する画像処理を実行する場合には、ユーザは、入力部120を操作して、分類する際に使用するする特徴量(特徴量f~f10のうち、一部の特徴量)や、特徴量の重要度などをパラメータとして設定する。
画像処理部155が、病理画像に含まれる部分領域から、特定の特徴量を有する部分領域を抽出する画像処理を実行する場合には、ユーザは、入力部120を操作して、抽出する場合に利用する特徴量(特徴量f~f10のうち、一部の特徴量)や、抽出する際の特徴量毎の閾値などをパラメータとして設置する。
ここで、画像処理部155の処理結果の一例について説明する。図20、図21、図22は、画像処理部155が実行する分類処理の一例を説明するための図である。図20について説明する。病理画像Ima1-1は、分類処理を実行する前の病理画像である。病理画像Ima1-1において、ユーザは、第1カテゴリとして、部分領域Pを指定し、第2カテゴリとして、部分領域Pを指定し、第3カテゴリとして、部分領域Pを選択したものとする。部分領域Pを第1の色で示す。部分領域Pを第2の色で示す。部分領域Pを第3の色で示す。
画像処理部155は、ユーザに設定されるパラメータを基にして、病理画像Ima1-1に含まれる各部分領域を、第1カテゴリ、第2カテゴリ、第3カテゴリのいずれかに分類する。分類結果は、病理画像Ima1-2に示すものとなる。病理画像Ima1-2において、第1の色で示す各部分領域は、第1カテゴリに分類された部分領域である。第2の色で示す各部分領域は、第2カテゴリに分類された部分領域である。第3の色で示す各部分領域は、第3カテゴリに分類された部分領域である。画像処理部155は、分類結果となる病理画像Ima1-2を、表示部130に出力して表示させてもよい。
図21について説明する。図21では、画像処理部155が、第1カテゴリ、第2カテゴリ、第3カテゴリにそれぞれ分類された部分領域を、特徴量に応じて、特徴空間Gr1にプロットした場合を示す。特徴空間Gr1の縦軸は、第1の特徴量fに対応する軸であり、横軸は、第2の特徴量fに対応する軸である。図21に示す例では、第1カテゴリに分類された部分領域が、領域Ar1に位置する。第2カテゴリに分類された部分領域が、領域Ar2に位置する。第3カテゴリに分類された部分領域が、領域Ar3に位置する。画像処理部155は、図21に示した特徴空間Gr1の情報を、表示部130に出力して表示させてもよい。
図22について説明する。図22では、各特徴量のヒストグラムh1-2~4-2を示す。画像処理部155は、第1カテゴリに分類された部分領域の特徴量の分布と、第2カテゴリに分類された部分領域の特徴量の分布と、第3カテゴリに分類された部分領域の特徴量の分布とを識別可能にして、ヒストグラムh1-2~4-2を生成する。
ヒストグラムh1-2は、特徴量fに対応するヒストグラムである。ヒストグラムh1-2において、分布41aは、第1カテゴリに分類された部分領域の特徴量の分布である。分布42aは、第2カテゴリに分類された部分領域の特徴量の分布である。分布43aは、第3カテゴリに分類された部分領域の特徴量の分布である。
ヒストグラムh2-2は、特徴量fに対応するヒストグラムである。ヒストグラムh2-2において、分布41bは、第1カテゴリに分類された部分領域の特徴量の分布である。分布42bは、第2カテゴリに分類された部分領域の特徴量の分布である。分布43bは、第3カテゴリに分類された部分領域の特徴量の分布である。
ヒストグラムh3-2は、特徴量fに対応するヒストグラムである。ヒストグラムh3-2において、分布41cは、第1カテゴリに分類された部分領域の特徴量の分布である。分布42cは、第2カテゴリに分類された部分領域の特徴量の分布である。分布43cは、第3カテゴリに分類された部分領域の特徴量の分布である。
ヒストグラムh4-2は、特徴量fに対応するヒストグラムである。ヒストグラムh4-2において、分布41dは、第1カテゴリに分類された部分領域の特徴量の分布である。分布42dは、第2カテゴリに分類された部分領域の特徴量の分布である。分布43dは、第3カテゴリに分類された部分領域の特徴量の分布である。
図示を省略するが、画像処理部155は、特徴量f~f10に対応するヒストグラムも同様にして生成する。画像処理部155は、図22に示したヒストグラムh1-2~h4-2の情報を、表示部130に出力して表示させてもよい。
[4.処理手順]
図23は、本実施形態に係る画像処理装置100の処理手順を示すフローチャートである。図23に示すように、画像処理装置100の取得部151は、病理画像を取得する(ステップS101)。画像処理装置100の解析部152は、病理画像に対してセグメンテーションを実行し、部分領域を抽出する(ステップS102)。
解析部152は、各部分領域の特徴量を算出する(ステップS103)。表示制御部153は、部分領域を示す病理画像を表示部130に表示させる(ステップS104)。表示制御部153は、部分領域の指定を受け付ける(ステップS105)。
画像処理装置100の生成部154は、補助情報を生成する(ステップS106)。表示制御部153は、補助情報を、表示部130に表示させる(ステップS107)。
画像処理装置100は、指定対象の部分領域の変更または追加を受け付けた場合には(ステップS108,Yes)、ステップS105に移行する。一方、画像処理装置100は、指定対象の部分領域の変更または追加を受け付けていない場合には(ステップS108,No)、ステップS109に移行する。
画像処理装置100の画像処理部155は、パラメータの調整を受け付ける(ステップS109)。画像処理部155は、調整されたパラメータを基にして、分類または抽出処理を実行する(ステップS110)。
画像処理装置100は、パラメータの再調整を受け付けた場合には(ステップS111,Yes)、ステップS109に移行する。画像処理装置100は、パラメータの再調整を受け付けない場合には(ステップS111,No)、処理を終了する。
[5.その他の処理]
画像処理装置100は、病理画像全体の状況など、病理画像内の複数の部分領域の状況を把握することができる情報を、補助情報として生成し、かかる補助情報を表示させてもよい。
図24および図25は、画像処理装置100のその他の処理を説明するための図である。図24について説明する。画像処理装置100の表示制御部153は、複数のROI(Region Of Interest)に分割した病理画像Ima10を表示する。ユーザは、入力部120を操作して、複数のROIを指定する。図24に示す例では、ROI40a,40b,40c,40d,40eが指定された場合を示す。表示制御部153は、ROIの指定を受け付けると、図25に示す画面情報を表示する。
図25について説明する。表示制御部153は、画面情報45に、拡大したROIの画像41a~41eを表示させる。画像41aは、ROI40aを拡大した画像である。画像41bは、ROI40bを拡大した画像である。画像41cは、ROI40cを拡大した画像である。画像41dは、ROI40dを拡大した画像である。画像41eは、ROI40eを拡大した画像である。
画像処理装置100の解析部152は、上記処理と同様にして、ROI40aから部分領域を抽出し、各部分領域の特徴量を算出する。画像処理装置100の生成部154は、ROI40aの各部分領域の特徴量を基にして、補助情報42aを生成し、画面情報45に設定する。たとえば、補助情報42aは、図18で説明した第3の補助情報であってもよいし、他の補助情報であってもよい。生成部154は、ROI40b~40eについても、の各部分領域の特徴量を基にして、補助情報42b~42eを生成し、画面情報45に設定する。
ユーザは、画面情報45を参照することによって、病理画像全体の特徴を把握することができ、画像処理を実行する場合のパラメータ調整に役立てることができる。
[6.本実施形態に係る画像処理装置の効果]
本実施形態に係る画像処理装置100は、病理画像から複数の部分領域を抽出し、部分領域の指定を受け付けた場合に、病理画像から算出される複数の特徴量に対して、部分画像を分類または抽出する場合に有効な特徴量を示す補助情報を生成する。画像処理装置100は、補助情報を参照したユーザから、パラメータの設定を受け付けた場合、受け付けたパラメータを用いて、病理画像に対して画像処理を実行する。これによって、形態の見た目の特徴を定量化した特徴量を、補助情報によって適切に表示することができ、画像処理のパラメータの調整を容易にすることができる。たとえば、病理医などの専門家の「肉眼的・可視的な特徴」と、「算出された定量的特徴」との対応を容易に行うことができる。
画像処理装置100は、指定された複数の部分領域をそれぞれ分類する際の寄与率を算出し、特徴量と寄与率とを対応付けた情報を補助情報として生成して表示する。ユーザは、かかる補助情報を参照することで、複数の部分領域をカテゴリ毎に分類する場合に、どの特徴量に重きをおいて、パラメータの設定を行えばよいかを容易に把握することができる。
画像処理装置100は、指定された複数の部分領域から算出される複数の特徴量の大きさを基にして、一部の特徴量を選択し、選択した特徴量を補助情報として生成する。ユーザは、かかる補助情報を参照することで、指定した部分領域と同一のカテゴリとなる部分領域を抽出する場合に、利用すべき特徴量を容易に把握することができる。
画像処理装置100は、病理画像に対してセグメンテーションを実行し、複数の部分領域を抽出する。これによって、ユーザは、病理画像に含まれる細胞形態に相当する領域を容易に指定することができる。
画像処理装置100は、病理画像に含まれる全ての部分領域を表示し、全ての部分領域のうち、複数の部分領域の選択を受け付ける。これによって、ユーザは、補助情報の作成で用いる部分領域を容易に選択することができる。
画像処理装置100は、因子分析または予測分析等を実行して、寄与率を算出する。これによって、指定された異なるカテゴリ毎に、部分領域を適切に分類する場合に有効となる特徴量を算出することができる。
画像処理装置100は、一部の特徴量に対応する特徴空間を生成し、指定を受け付けた部分領域の特徴量に基づいて、指定を受け付けた部分領域に対応する特徴量空間上の位置を特定する。これによって、ユーザは、指定した部分領域に対する特徴空間上の位置を容易に把握することができる。
画像処理装置100は、寄与率が上位となる特徴量を特定し、特定した特徴量の特徴空間を生成する。これによって、ユーザは、寄与率の高い特徴量の特徴空間における、指定した部分領域の分布を把握することができる。
画像処理装置100は、病理画像全体に対して複数のROIが指定された場合に、各ROIに含まれる部分領域の特徴量を基にして、補助情報を生成する。これによって、病理画像全体の特徴を把握することができ、画像処理を実行する場合のパラメータ調整に役立てることができる。
<<3.ハードウェア構成>>
上述してきた各実施形態に係る画像処理装置は、たとえば、図26に示すような構成のコンピュータ1000によって実現される。以下、実施形態に係る撮像システム100を例に挙げて説明する。図26は、画像処理装置の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500、及び入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
また、コンピュータ1000は、入出力インターフェイス1600を介して、ミリ波レーダや、カメラモジュール(画像生成部107等に相当)に接続する。
例えば、コンピュータ1000が実施形態に係る画像処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた画像処理プログラムを実行することにより、取得部151、解析部152、表示制御部153、生成部154、画像処理部155等の機能を実現する。また、HDD1400には、本開示に係る画像処理プログラム等が格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
<<4.むすび>>
画像処理装置は、生成部と、画像処理部とを有する。生成部は、病理画像から抽出される複数の部分領域であって、細胞形態に対応する前記複数の部分領域の指定を受け付けた場合、前記画像から算出される複数の特徴量に対して、複数の部分領域をそれぞれ分類または抽出する際に有効な特徴量の情報を示す補助情報を生成する。画像処理部は、前記補助情報に応じた調整項目の設定情報を受け付けた場合、前記設定情報を用いて前記画像に対して画像処理を実行する。これによって、形態の見た目の特徴を定量化した特徴量を、補助情報によって適切に表示することができ、画像処理のパラメータの調整を容易にすることができる。たとえば、「病理医などの専門家の知識に基づく特徴」と、「算出された定量的特徴」との対応を容易に行うことができる。
前記生成部は、指定された前記複数の部分領域をそれぞれ分類する際の寄与率を算出し、前記特徴量と前記寄与率とをそれぞれ対応付けた情報を、前記補助情報として生成する。ユーザは、かかる補助情報を参照することで、複数の部分領域をカテゴリ毎に分類する場合に、どの特徴量に重きをおいて、パラメータの設定を行えばよいかを容易に把握することができる。
前記生成部は、指定された複数の部分領域から算出される複数の特徴量の大きさを基にして、一部の特徴量を選択し、選択した特徴量の情報を、前記補助情報として生成する。ユーザは、かかる補助情報を参照することで、指定した部分領域と同一のカテゴリとなる部分領域を抽出する場合に、利用すべき特徴量を容易に把握することができる。
画像処理装置は、前記画像に対してセグメンテーションを実行し、前記複数の部分領域を抽出する。これによって、ユーザは、病理画像に含まれる細胞形態に相当する領域を容易に指定することができる。
画像処理装置は、前記解析部に抽出された全ての部分領域を表示し、前記全ての部分領域のうち、複数の部分領域の指定を受け付ける表示制御部を更に有する。前記表示制御部は、前記補助情報を更に表示する。これによって、ユーザは、補助情報の作成で用いる部分領域を容易に選択することができる。
前記生成部は、因子分析または予測分析を実行して前記寄与率を算出する。これによって、指定された異なるカテゴリ毎に部分領域を適切に分類する場合に有効となる特徴量を算出することができる。
前記生成部は、一部の特徴量に対応する特徴空間を生成し、指定を受け付けた部分領域の特徴量に基づいて、指定を受け付けた部分領域に対応する前記特徴量空間上の位置を特定する。これによって、ユーザは、指定した部分領域に対する特徴空間上の位置を容易に把握することができる。
前記生成部は、寄与率が上位となる特徴量を特定し、特定した特徴量の特徴空間を生成する。これによって、ユーザは、寄与率の高い特徴量の特徴空間における、指定した部分領域の分布を把握することができる。
前記生成部は、前記病理画像に対して複数の領域を指定された場合に、複数の領域それぞれに対して補助情報を生成する。これによって、病理画像全体の特徴を把握することができ、画像処理を実行する場合のパラメータ調整に役立てることができる。
1 診断支援システム
10 病理システム
11 顕微鏡
12 サーバ
13 表示制御装置
14 表示装置
100 画像処理装置
110 通信部
120 入力部
130 表示部
140 記憶部
141 病理画像DB
142 特徴量テーブル
150 制御部
151 取得部
152 解析部
153 表示制御部
154 生成部
155 画像処理部

Claims (13)

  1. 病理画像から抽出される複数の部分領域であって、細胞形態に対応する前記複数の部分領域の指定を受け付けた場合、前記画像から算出される複数の特徴量に対して、複数の部分領域をそれぞれ分類または抽出する際に有効な特徴量の情報を示す補助情報を生成する生成部と、
    前記補助情報に応じた調整項目の設定情報を受け付けた場合、前記設定情報を用いて前記画像に対して画像処理を実行する画像処理部と
    を有する画像処理装置。
  2. 前記生成部は、指定された前記複数の部分領域をそれぞれ分類する際の寄与率を算出し、前記特徴量と前記寄与率とをそれぞれ対応付けた情報を、前記補助情報として生成する請求項1に記載の画像処理装置。
  3. 前記生成部は、指定された複数の部分領域から算出される複数の特徴量の大きさを基にして、一部の特徴量を選択し、選択した特徴量の情報を、前記補助情報として生成する請求項1に記載の画像処理装置。
  4. 前記画像に対してセグメンテーションを実行し、前記複数の部分領域を抽出する解析部を更に有する請求項1に記載の画像処理装置。
  5. 前記解析部に抽出された全ての部分領域を表示し、前記全ての部分領域のうち、複数の部分領域の指定を受け付ける表示制御部を更に有する請求項4に記載の画像処理装置。
  6. 前記表示制御部は、前記補助情報を更に表示する請求項5に記載の画像処理装置。
  7. 前記生成部は、因子分析または予測分析を実行して前記寄与率を算出する請求項2に記載の画像処理装置。
  8. 前記生成部は、一部の特徴量に対応する特徴空間を生成し、指定を受け付けた部分領域の特徴量に基づいて、指定を受け付けた部分領域に対応する前記特徴量空間上の位置を特定する請求項5に記載の画像処理装置。
  9. 前記生成部は、寄与率が上位となる特徴量を特定し、特定した特徴量の特徴空間を生成する請求項6に記載の画像処理装置。
  10. 前記生成部は、前記病理画像に対して複数の領域を指定された場合に、複数の領域それぞれに対して補助情報を生成する請求項1に記載の画像処理装置。
  11. コンピュータが、
    病理画像から抽出される複数の部分領域であって、細胞形態に対応する前記複数の部分領域の指定を受け付けた場合、前記画像から算出される複数の特徴量に対して、複数の部分領域をそれぞれ分類または抽出する際に有効な特徴量の情報を示す補助情報を生成し、
    前記補助情報に応じた調整項目の設定情報を受け付けた場合、前記設定情報を用いて前記画像に対して画像処理を実行する
    画像処理方法。
  12. コンピュータを、
    病理画像から抽出される複数の部分領域であって、細胞形態に対応する前記複数の部分領域の指定を受け付けた場合、前記画像から算出される複数の特徴量に対して、複数の部分領域をそれぞれ分類または抽出する際に有効な特徴量の情報を示す補助情報を生成する生成部と、
    前記補助情報に応じた調整項目の設定情報を受け付けた場合、前記設定情報を用いて前記画像に対して画像処理を実行する画像処理部と
    として機能させるための画像処理プログラム。
  13. 医療画像取得装置と、前記医療画像取得装置により撮像される対象物に対応する医療画像の処理に使われるソフトウェアとを含んで構成される診断支援システムであって、
    前記ソフトウェアは、
    病理画像から抽出される複数の部分領域であって、細胞形態に対応する前記複数の部分領域の指定を受け付けた場合、前記画像から算出される複数の特徴量に対して、複数の部分領域をそれぞれ分類または抽出する際に有効な特徴量の情報を示す補助情報を生成し、
    前記補助情報に応じた調整項目の設定情報を受け付けた場合、前記設定情報を用いて前記画像に対する画像処理を画像処理装置に実行させる
    診断支援システム。
JP2020110156A 2020-06-26 2020-06-26 画像処理装置、画像処理方法、画像処理プログラム及び診断支援システム Pending JP2022007281A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020110156A JP2022007281A (ja) 2020-06-26 2020-06-26 画像処理装置、画像処理方法、画像処理プログラム及び診断支援システム
US18/002,423 US20230230398A1 (en) 2020-06-26 2021-06-02 Image processing device, image processing method, image processing program, and diagnosis support system
PCT/JP2021/020921 WO2021261185A1 (ja) 2020-06-26 2021-06-02 画像処理装置、画像処理方法、画像処理プログラム及び診断支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020110156A JP2022007281A (ja) 2020-06-26 2020-06-26 画像処理装置、画像処理方法、画像処理プログラム及び診断支援システム

Publications (1)

Publication Number Publication Date
JP2022007281A true JP2022007281A (ja) 2022-01-13

Family

ID=79282542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020110156A Pending JP2022007281A (ja) 2020-06-26 2020-06-26 画像処理装置、画像処理方法、画像処理プログラム及び診断支援システム

Country Status (3)

Country Link
US (1) US20230230398A1 (ja)
JP (1) JP2022007281A (ja)
WO (1) WO2021261185A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034374A1 (ja) * 2022-08-12 2024-02-15 株式会社日立ハイテク オブジェクト分類装置、オブジェクト分類方法及びオブジェクト分類システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5442542B2 (ja) * 2010-06-25 2014-03-12 大日本スクリーン製造株式会社 病理診断支援装置、病理診断支援方法、病理診断支援のための制御プログラムおよび該制御プログラムを記録した記録媒体
WO2015198620A1 (ja) * 2014-06-23 2015-12-30 オリンパス株式会社 組織地図作成方法
JP6624369B2 (ja) * 2015-01-23 2019-12-25 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、画像表示装置およびコンピュータプログラム
JP6646552B2 (ja) * 2016-09-13 2020-02-14 株式会社日立ハイテクノロジーズ 画像診断支援装置、画像診断支援方法及び試料分析システム
JP7079631B2 (ja) * 2018-03-19 2022-06-02 株式会社Screenホールディングス 画像処理方法、コンピュータプログラムおよび記録媒体
JP2020115283A (ja) * 2019-01-17 2020-07-30 パナソニックIpマネジメント株式会社 特徴量決定方法、学習用データ生成方法、学習用データセット、評価システム、プログラム、及び、学習方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034374A1 (ja) * 2022-08-12 2024-02-15 株式会社日立ハイテク オブジェクト分類装置、オブジェクト分類方法及びオブジェクト分類システム

Also Published As

Publication number Publication date
WO2021261185A1 (ja) 2021-12-30
US20230230398A1 (en) 2023-07-20

Similar Documents

Publication Publication Date Title
JP6816196B2 (ja) 包括的なマルチアッセイ組織分析のためのシステムおよび方法
US10726295B2 (en) Control method and recording medium
KR20220012830A (ko) 신경망 기반 디지털 병리학 이미지의 관심 영역의 식별
WO2020182078A1 (zh) 影像分析方法、显微镜视频流处理方法和相关装置
US9891804B2 (en) Selection and display of biomarker expressions
US20150310652A1 (en) Systems and methods for split screen display of biological specimen and for capturing records thereof
US10261681B2 (en) Method for displaying a medical image and a plurality of similar medical images obtained from a case search system
US20100260395A1 (en) Graphical user interface for in-vivo imaging
US11776692B2 (en) Training data collection apparatus, training data collection method, program, training system, trained model, and endoscopic image processing apparatus
EP2546802A2 (en) Generating artificial hyperspectral images using correlated analysis of co-registered images
WO2021230000A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
US20230393380A1 (en) Method And System For Identifying Objects In A Blood Sample
JP2009527063A (ja) 仮想環境において見本及びデータを使用及び統合するシステム及びその方法
WO2021261185A1 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び診断支援システム
WO2022004337A1 (ja) 判断支援装置、情報処理装置及び学習方法
US11610395B2 (en) Systems and methods for generating encoded representations for multiple magnifications of image data
WO2021220873A1 (ja) 生成装置、生成方法、生成プログラム及び診断支援システム
WO2021157405A1 (ja) 解析装置、解析方法、解析プログラム及び診断支援システム
WO2020174863A1 (ja) 診断支援プログラム、診断支援システム及び診断支援方法
WO2021261323A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
WO2021220803A1 (ja) 表示制御方法、表示制御装置、表示制御プログラム及び診断支援システム
WO2022202233A1 (ja) 情報処理装置、情報処理方法、情報処理システム、及び、変換モデル
WO2021157397A1 (ja) 情報処理装置及び情報処理システム
JP2019519794A (ja) サンプルの画像の中の、生体要素のうち少なくとも1つの関心ある要素の判別を支援するための方法及び電子デバイス、関連するコンピュータプログラム
CN101421718A (zh) 聚集和使用物理样本