JP6575605B2 - 症例データ生成支援プログラム、症例データ生成支援システム及び症例データ生成支援方法 - Google Patents

症例データ生成支援プログラム、症例データ生成支援システム及び症例データ生成支援方法 Download PDF

Info

Publication number
JP6575605B2
JP6575605B2 JP2017552625A JP2017552625A JP6575605B2 JP 6575605 B2 JP6575605 B2 JP 6575605B2 JP 2017552625 A JP2017552625 A JP 2017552625A JP 2017552625 A JP2017552625 A JP 2017552625A JP 6575605 B2 JP6575605 B2 JP 6575605B2
Authority
JP
Japan
Prior art keywords
data
image data
class
extracted
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017552625A
Other languages
English (en)
Other versions
JPWO2017090170A1 (ja
Inventor
武部 浩明
浩明 武部
正樹 石原
正樹 石原
昌彦 杉村
昌彦 杉村
遠藤 進
進 遠藤
馬場 孝之
孝之 馬場
上原 祐介
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2017090170A1 publication Critical patent/JPWO2017090170A1/ja
Application granted granted Critical
Publication of JP6575605B2 publication Critical patent/JP6575605B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Business, Economics & Management (AREA)
  • Physiology (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)

Description

本発明は、症例データ生成支援プログラム、症例データ生成支援システム及び症例データ生成支援方法に関する。
従来より、医療の現場においては、撮影されたCT(Computed Tomography)画像データ等を用いて病気(例えば、腫瘍領域)の診断が行われており、その際、医師等の診断負荷を軽減するために、診断支援システムが利用されている。当該診断支援システムによれば、例えば、データベース化された過去の症例データの中から、診断対象に類似する症例データを検索して表示することができる。
ここで、症例データをデータベース化するためには、過去に撮影されたCT画像データ等の中から所定領域の画像データを症例データとして抽出し、腫瘍領域か否かの判定を行う必要がある。このとき、症例データの数が膨大な数となる場合には、判定を機械的に行うことが求められる。更に、判定を機械的に行うためには、腫瘍領域であることが既知のデータと、腫瘍領域でないことが既知のデータとを用いて、それぞれのクラスにグルーピングする境界面を算出する必要がある。
しかしながら、腫瘍領域の中には、人体内の組織と類似しているものもあり、腫瘍領域か否かの判定に適した境界面を算出することは容易ではない。このため、当該境界面を用いて症例データを判定すると、いずれのクラスにも属さない未確定の症例データが生じることになる。このような場合、未確定の症例データについては、医師等がクラスの判断を行い、当該医師等による判断の結果が反映されるように境界面を変更することで、腫瘍領域か否かを判定する判定する際の精度を改善している。
特開2005−352997号公報
ここで、医師等による判断の結果に基づいて境界面を変更する場合、医師等にとっては、上述した未確定の症例データの中から、境界面の変更に伴う判定精度の改善効果が大きい症例データを選択することが望ましい。このような症例データを選択することで、境界面の変更回数を減らすことができ、変更作業の負荷を低減できるからである。
しかしながら、境界面は、症例データの特徴量の数に応じた高次元の特徴量空間において規定されるため、判定精度の改善効果が大きい症例データを、医師等が把握するのは困難である。
一つの側面では、画像データの群をグルーピングするための境界面を変更する際の医師等による作業を支援することを目的とする。
一態様によれば、症例データ生成支援プログラムは、複数種類の特徴量で表現された画像データの群をグルーピングするそれぞれの境界に対して基準となる値を規定し、前記画像データの群における個々の画像データの、前記基準となる値に対する離れ度合を示す軸に沿って、該個々の画像データをプロットして表示し、表示した前記プロットのうちのいずれかの特定を受け付け、該特定を受け付けた1のプロットに対応する画像データに基づいて、前記境界面を変更する処理をコンピュータに実行させる。
画像データの群をグルーピングする境界面を変更する際の医師等による作業を支援することができるようになる。
図1は、診断支援システムの一例を示す図である。 図2は、画像解析装置のハードウェア構成を示す図である。 図3は、CT画像データ格納用DBの構成を示す図である。 図4は、症例データ検索用DBの構成を示す図である。 図5は、境界面の生成作業の流れを説明するための図である。 図6は、境界面の生成作業における従来の変更方法を説明するための図である。 図7は、境界面の生成作業における第1の実施形態の画像解析装置による変更方法を説明するための図である。 図8は、未確定の抽出領域データの提示方法の問題点を説明するための図である。 図9は、第1の実施形態における提示方法において用いられる指標を説明するための図である。 図10は、指標xと未確定の抽出領域データとの関係を説明するための図である。 図11は、指標yと未確定の抽出領域データとの関係を説明するための図である。 図12は、第1の実施形態における提示方法を説明するための図である。 図13は、画像解析装置の機能構成の一例を示す図である。 図14は、症例データ生成支援処理のフローチャートである。 図15は、可視化及び変更処理のフローチャートである。 図16は、可視化処理の第1のフローチャートである。 図17は、可視化結果の一例を示す第1の図である。 図18は、可視化処理の第2のフローチャートである。 図19は、可視化結果の一例を示す第2の図である。
以下の各実施形態において説明する症例データ生成支援システムは、画像データをグルーピングする「境界面」を変更する際の、医師等による変更作業を支援する。
「境界面」とは、クラス既知の画像データをグルーピングすることで算出される各クラスの境界を表す仮想的な面であり、クラス既知の画像データを学習モデルに入力し、それぞれのクラスでグルーピングすることで算出される。したがって、境界面は、学習モデルに入力されるクラス既知の画像データに応じて変化する。
「境界面」は、クラスごとにそれぞれ規定され、以下の各実施形態では、腫瘍領域のデータが属するクラスの境界面と、それ以外のデータが属するクラスの境界面とが規定される場合について説明する。ただし、境界面により規定されるクラスはこれに限定されるものではない。
また、「境界面」は、クラス未知の画像データのクラスを判定する際に用いられ、腫瘍領域のデータが属するクラスの境界面に対してクラス未知の画像データが内側に位置していれば、当該クラス未知のデータは腫瘍領域のデータであると判定される。また、それ以外のデータが属するクラスの境界面に対して内側に位置していれば、当該クラス未知のデータはそれ以外のデータであると判定される。
なお、以下の各実施形態において、境界面に基づくクラス判定処理を行う前の画像データの中には、「クラス既知の画像データ」と「クラス未知の画像データ」とが含まれるものとする。「クラス既知の画像データ」は、学習モデルに入力されてグルーピングされ、境界面を算出するのに用いられる。一方、「クラス未知の画像データ」は、クラス既知の画像データに基づいて算出された境界面に基づいて、クラス判定処理を行うのに用いられる。
また、境界面に基づくクラス判定処理が行われた後の画像データの中には、クラスが「確定した画像データ」と「未確定の画像データ」とが含まれる。「クラスが確定した画像データ」とは、いずれかのクラスの境界面に対して内側に位置していると判定された画像データ(腫瘍領域の画像データまたはそれ以外の画像データ)である。一方、クラスが「未確定の画像データ」とは、いずれのクラスの境界面に対しても外側に位置していると判定された画像データである。
なお、以下の各実施形態において「判別面」とは、各クラスの境界面の間に位置する仮想的な中間面であり、未確定の画像データのうち、医師等によりクラスが判断されるべき画像データの選択に際して、基準となる面である。
以下、各実施形態の詳細を添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
[第1の実施形態]
はじめに、CT(Computed Tomography)画像を撮影するCT画像撮影システムと、第1の実施形態に係る症例データ生成支援システムと、を含む診断支援システムについて説明する。図1は、診断支援システムの一例を示す図である。
図1に示すように、診断支援システム100は、CT画像撮影システム110と、症例データ生成支援システム120とを含む。
CT画像撮影システム110は、CT装置111と画像処理装置112と表示装置113と記憶装置114とを有する。CT装置111と画像処理装置112とは電気的に接続されており、両装置の間では各種データの送受信が行われる。また、画像処理装置112と記憶装置114も電気的に接続されており、両装置の間においても各種データの送受信が行われる。
CT装置111は、放射線等を利用して患者の体内を走査し、コンピュータを用いて処理することで、患者を輪切りにした断面についての断面画像であるCT画像を生成する(以下、このような処理を"CT画像を撮影する"と称する)。CT装置111は、撮影したCT画像を画像処理装置112に送信する。
画像処理装置112には、CT装置111において撮影されたCT画像を、接続された記憶装置114のCT画像データ格納用データベース(以下、DBと称す)114−1に格納する。また、画像処理装置112には、診断支援プログラムがインストールされており、当該診断支援プログラムがコンピュータにより実行されることで、画像処理装置112は、診断支援部112−1として機能する。
診断支援部112−1は、異なる時期に撮影され、CT画像データ格納用DB114−1に格納されたCT画像データを読み出して、表示装置113に表示する。これにより、医師等は、異なる時期に撮影された患者の腫瘍領域を比較する比較読影を行うことができる。
また、診断支援部112−1は、診断中のCT画像データにおいて所定の領域が指定された場合、類似する腫瘍領域を含む症例データを、症例データ検索用DB114−2から検索して、表示装置113に表示する。つまり、医師等は、診断中のCT画像データにおいて指定した所定領域について、類似症例検索を行うことができる。
記憶装置114は、CT装置111において撮影されたCT画像データを、画像処理装置112を介して受信し、CT画像データ格納用DB114−1に格納する。また、記憶装置114は、CT画像データから抽出された所定領域の画像データ(以下、抽出領域データと称す)を、CT画像データ格納用DB114−1に格納する。なお、抽出領域データは、腫瘍領域を含む画像データと腫瘍領域を含まない画像データとを有し、いずれも複数種類の特徴量により表現される。
更に、記憶装置114は、症例データ生成支援システム120において生成された症例データ(類似症例検索に用いられる抽出領域データ)を、症例データ検索用DB114−2に格納する。
症例データ生成支援システム120は、画像解析装置121と表示装置122とを有する。画像解析装置121と記憶装置114とは、ネットワーク140を介して通信可能に接続されており、画像解析装置121は、ネットワーク140を介して記憶装置114にアクセスすることができる。
画像解析装置121には、症例データ生成支援プログラムがインストールされており、症例データ生成支援プログラムがコンピュータにより実行されることで、画像解析装置121は、症例データ生成支援部121−1として機能する。
症例データ生成支援部121−1は、クラス未知の抽出領域データについて、腫瘍領域か否かを機械的に判定する際(クラス判定処理を行う際)に用いられる"境界面"を算出する学習モデル(例えば、SVM(Support Vector Machine))を有する。症例データ生成支援部121−1は、CT画像データ格納用DB114−1に格納された抽出領域データであって、腫瘍領域であるか否かが既知の抽出領域データを読み出し、腫瘍領域であるか否かを判定する際の"境界面"を算出する。
また、症例データ生成支援部121−1は、腫瘍領域であるか否かが未知の抽出領域データについて、境界面に基づいて腫瘍領域であるか否かを機械的に判定するクラス判定処理を行う。なお、クラス判定処理の結果、腫瘍領域のクラスでもそれ以外のクラスでもないと判定された抽出領域データ(未確定の抽出領域データ)については、医師等により腫瘍領域であるか否かの判断が行われる。症例データ生成支援部121−1は、医師等による判断の結果を受け付けて、受け付けた判断の結果に基づき、境界面を変更するとともに、症例データ検索用DB114−2を更新する。
次に、画像解析装置121のハードウェア構成について説明する。図2は、画像解析装置のハードウェア構成を示す図である。図2に示すように、画像解析装置121は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、補助記憶部204を備える。また、画像解析装置121は、接続部205、通信部206、ドライブ部207を備える。なお、画像解析装置121の各部は、バス208を介して相互に接続されている。
CPU201は、補助記憶部204に格納された各種プログラム(例えば、症例データ生成支援プログラム等)を実行するコンピュータである。
ROM202は不揮発性メモリである。ROM202は、補助記憶部204に格納された各種プログラムをCPU201が実行するために必要な各種プログラム、データ等を格納する主記憶部として機能する。具体的には、BIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する。
RAM203は揮発性メモリであり、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等を含む。RAM203は、補助記憶部204に格納された各種プログラムがCPU201によって実行される際に展開される、作業領域を提供する主記憶部である。
補助記憶部204は、画像解析装置121にインストールされた各種プログラムや、各種プログラムが実行されることで生成されるデータ等を記録するコンピュータ読み取り可能な記憶装置である。
接続部205は、表示装置122と接続され、表示装置122との間で各種データの送受信を行う。これにより、画像解析装置121は、表示装置122への各種画面の表示や、表示装置122を介して入力された各種指示の受け付けを行う。
通信部206は、ネットワーク140を介して記憶装置114との間で通信を行う。ドライブ部207は記録媒体210をセットするためのデバイスである。ここでいう記録媒体210には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体210には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等も含まれる。
なお、補助記憶部204に格納される各種プログラムは、例えば、配布された記録媒体210がドライブ部207にセットされ、該記録媒体210に記録された各種プログラムがドライブ部207により読み出されることでインストールされる。あるいは、補助記憶部204に格納される各種プログラムは、通信部206を介してネットワーク140からダウンロードされることでインストールされてもよい。
次に、CT画像データ格納用DB114−1の構成について説明する。図3は、CT画像データ格納用DBの構成を示す図である。図3に示すように、CT画像データ格納用DB114−1において、CT画像データは患者ごとに分けて管理されている。具体的には、CT画像データ格納用DB114−1は、患者ごとのCT画像データを含む患者別情報301、302、303、・・・を有する。
患者別情報301、302、303、・・・は、それぞれ同様のフォーマットを有しているため、ここでは、患者別情報301について説明する。患者別情報301は、情報の項目として"患者名"、"年齢"、"性別"、"現病歴"が含まれ、それぞれ、患者の属性情報が格納される。さらに、患者別情報301は、情報の項目として"撮影日時"、"撮影部位"、"シリーズ名"、"CT画像データ群"、"抽出領域データ"が含まれる。
"撮影日時"、"撮影部位"には、それぞれ、撮影に関連する属性情報が格納される。"シリーズ名"には、撮影により得られた、患者の上下方向の複数の位置におけるCT画像データを含むシリーズを特定するためのシリーズ名が格納される。
"CT画像データ群"には、撮影により得られた複数のCT画像データの各ファイルが格納される。"抽出領域データ"には、CT画像データより抽出された抽出領域データが格納される。
次に、症例データ検索用DB114−2の構成について説明する。図4は、症例データ検索用DBの構成を示す図である。図4に示すように、症例データ検索用DB114−2において、症例データは、撮影部位ごと及び症例ごとに分けて管理されている。具体的には、症例データ検索用DB114−2は、撮影部位ごと及び症例ごとの症例データを含む症例別情報401、402、403、・・・を有する。
症例別情報401、402、403、・・・は、それぞれ同様のフォーマットを有しているため、ここでは、症例別情報401について説明する。症例別情報401は、情報の項目として"クラス名"、"境界面"、"画像データ"が含まれる。
"クラス名"には、各クラスのクラス名が格納される。クラス名="クラスα"とは、例えば、CT画像データより抽出された抽出領域データのうち、腫瘍領域のデータが属するクラスのクラス名を表す。また、クラス名="クラスβ"とは、例えば、CT画像データより抽出された抽出領域データのうち、腫瘍領域でないデータが属するクラスのクラス名を表す。
"境界面"には、クラス(例えば、クラスαとクラスβ)の境界を表す境界面を規定するパラメータが格納される。境界面は、例えば、クラス既知の画像データをSVMに入力し、それぞれのクラスでグルーピングすることにより算出され、サポートベクトルとその係数とによって規定される。
"画像データ"には、症例データ生成支援部121−1によりクラスが判定された抽出領域データが格納される。なお、"画像データ"に格納される抽出領域データには、対応する患者の属性情報や撮影に関連する属性情報が対応付けられているものとする。
次に、症例データ生成支援部121−1において実行される、境界面の生成作業の流れについて説明する。図5は、境界面の生成作業の流れを説明するための図である。
図5に示すように、境界面の生成作業は、SVM等の学習モデルを用いて境界面を算出し、算出した境界面を用いてクラス未知の抽出領域データのクラスを判定するフェーズを有する。また、境界面の生成作業は、学習モデルによるクラス判定処理の結果を医師等が確認し、未確定の抽出領域データについて医師等がクラスを判断し、判断結果を入力するフェーズを有する。そして、境界面は、両フェーズが交互に繰り返されることで生成される。
具体的には、症例データ生成支援部121−1は、学習モデルに基づいて算出した境界面に基づいて、腫瘍領域であるか否かが未知の抽出領域データのクラスを判定するクラス判定処理を行い、未確定の抽出領域データを、医師等に提示する。なお、未確定の抽出領域データの医師等への提示方法の詳細については後述する。
医師等は、提示内容に基づいて、クラスαとも、クラスβとも判定されなかった未確定の抽出領域データについて確認し、クラスを判断したうえで、判断結果を症例データ生成支援部121−1に入力する。
症例データ生成支援部121−1は、医師等による判断結果の入力を受け付け、未確定の抽出領域データのうち、医師等によりクラスが判断された抽出領域データが、医師等による判断結果に応じたクラスにグルーピングされるように、境界面を変更する。
症例データ生成支援部121−1は、変更された境界面を用いて、未確定の抽出領域データを再度判定するクラス判定処理を行い、未確定の抽出領域データを、医師等に提示する。以降、未確定の抽出領域データの提示、クラスの判断、境界面の変更を繰り返すことで、最終的な境界面を生成していく。
次に、境界面の生成作業における従来の変更方法について説明する。図6は、境界面の生成作業における従来の変更方法を説明するための図である。図6において、丸印(「〇」)及び三角印(「△」)は、特徴量空間における抽出領域データの分布を示している。丸印及び三角印は、いずれも未確定の抽出領域データであるが、説明の便宜上、分けて記載している。丸印は、本来、クラスαと判定されるべき抽出領域データであり、三角印は、本来、クラスβと判定されるべき抽出領域データである。
判別面601は、学習モデルによる1回目のクラス判定処理において用いられた、クラスαの境界を表す境界面と、クラスβの境界を表す境界面との間の中間面を示している。
従来の変更方法では、判別面601に最も近い抽出領域データ611(図6に示す「▲」)を医師等に提示する。これにより、医師等は、提示された抽出領域データ611が、クラスαと判定されるべき抽出領域データであるのか、クラスβと判定されるべき抽出領域データであるのかを判断する。ここでは、クラスβと判定されるべき抽出領域データであると判断したものとする。学習モデルでは、医師等による判断結果が反映されるように境界面を変更したうえで、2回目のクラス判定処理を行う。
判別面602は、学習モデルによる2回目のクラス判定処理において用いられた、クラスαの境界を表す境界面と、クラスβの境界を表す境界面との間の中間面を示している。抽出領域データ611についての医師等の判断結果を反映させたことで、判別面602は、左側に移動している。
従来の変更方法では、更に、変更後の判別面602に最も近い抽出領域データ612(図6に示す「▲」)を医師等に提示する。これにより、医師等は、提示された抽出領域データ612について、クラスαと判定されるべき抽出領域データであるのか、クラスβと判定されるべき抽出領域データであるのかを判断する。ここでは、クラスβと判定されるべき抽出領域データであると判断したものとする。学習モデルでは、医師等による判断結果が反映されるように境界面を変更したうえで、3回目のクラス判定処理を行う。
判別面603は、学習モデルによる3回目のクラス判定処理において用いられた、クラスαの境界を表す境界面と、クラスβの境界を表す境界面との間の中間面を示している。抽出領域データ612についての医師等の判断結果を反映させたことで、判別面603は、更に左側に移動している。
従来の変更方法では、更に、変更後の判別面603に最も近い抽出領域データ613(図6に示す「▲」)を医師等に提示する。
このように、従来の変更方法では、判別面603に最も近い抽出領域データを医師等に提示するため、1回の変更による判別面の移動距離が小さい。つまり、適切な位置に判別面が移動するまでに、抽出領域データの提示と、提示された抽出領域データについての医師等による判断とを、繰り返し行う必要がある。
これに対して、判別面から最も離れた抽出領域データを医師等が認識できるように提示し、当該抽出領域データについて医師等がクラスを判断できるようにすれば、抽出領域データの提示と医師等による判断とを行う回数を低減できる。そこで、第1の実施形態の画像解析装置121では、判別面から最も離れた抽出領域データを医師等が認識できるように提示し、当該抽出領域データについて医師等がクラスを判断できるようにする。
図7は、境界面の生成作業における第1の実施形態の画像解析装置による変更方法を説明するための図である。図7において、判別面601は、学習モデルによる1回目のクラス判定処理において用いられた、クラスαの境界を表す境界面と、クラスβの境界を表す境界面とに基づいて算出される中間面を示している。
第1の実施形態の画像解析装置121による変更方法では、
・判別面601に近い抽出領域データ611から見て、判別面601の反対側に分布する抽出領域データ、かつ
・抽出領域データ611のクラスと同じクラスであると判定されるべき抽出領域データ、かつ
・判別面601から最も離れた位置に分布する抽出領域データ、
を医師等が認識できるように提示する。
図7の例では、抽出領域データ711(図7に示す「▲」)を認識できるように提示することで、医師等は、抽出領域データ711のクラスについての判断結果を入力することができる。そして、学習モデルでは、医師等により入力された抽出領域データ711についての判断結果が反映されるように境界面を変更したうえで、2回目のクラス判定処理を行う。
判別面701は、学習モデルによる2回目のクラス判定処理において用いられた、クラスαの境界を表す境界面と、クラスβの境界を表す境界面との間の中間面を示している。抽出領域データ711のクラスについての判断結果を反映させたことで、判別面701は、左側に大きく移動している。
つまり、判別面601から最も離れた位置に分布する抽出領域データ711は、境界面を変更した際の改善効果の大きい抽出領域データであるということができる。したがって、抽出領域データ711のクラスを医師等が判断できるように提示すれば、抽出領域データの提示と医師等による判断とを行う回数を低減できる。
ここで、学習モデルによるクラス判定処理により、いずれのクラスにも判定されない未確定の抽出領域データについての提示方法として、抽出領域データ711等を医師等が認識できるように提示するための提示方法について検討する。
上述したように、一般に、境界面及び判別面は、高次元の曲面となる。ここで、高次元の特徴量空間において、医師等が、判別面から最も離れた位置に分布する抽出領域データ711を認識することは実際には困難である。
そこで、まず、医師等が認識しやすい2次元の特徴量平面に射影した場合について検討する。図8は、未確定の抽出領域データの提示方法の問題点を説明するための図である。図8において、特徴量空間810は、特徴量1〜特徴量3の3次元の特徴量空間を示しており、丸印及び三角印は、未確定の抽出領域データの分布を示している。一方、特徴量空間820は、特徴量1及び特徴量2の2次元の特徴量平面を示している(つまり、未確定の抽出領域データの分布を、特徴量1の軸及び特徴量2の軸により形成される平面に射影して示した場合を示している)。
特徴量空間820に示すように、2次元の特徴量平面に射影した場合、抽出領域データ同士の距離関係が保存されないため、判別面から最も離れた抽出領域データを認識することが、かえって困難となる。
このように、境界面を規定する特徴量を指標とした特徴量空間の場合、次元数を減らしても判別面と抽出領域データとの位置関係を認識することは困難である。そこで、第1の実施形態では、境界面を規定する特徴量とは異なる指標を用いた2次元平面により、抽出領域データの分布を提示する。
図9は、第1の実施形態における提示方法において用いられる指標を説明するための図である。図9において、判別面601は、図7において示した判別面601と同じである。つまり、図7と同様、判別面601は、学習モデルによる1回目のクラス判定処理において用いられた、クラスαの境界を表す境界面と、クラスβの境界を表す境界面とに基づいて算出した中間面を示している。
抽出領域データ611は、図6において示した抽出領域データ611と同じであり、判別面601に最も近い抽出領域データである。指標x及び指標yは、特徴量空間における各抽出領域データの位置を示す指標であり、図9の例では、抽出領域データ911の位置を示すための指標として示している。
具体的には、指標xは、抽出領域データ911を通り、判別面601に対して略直交する直線と、判別面601との交点922と、抽出領域データ911との間の距離を示している。
また、指標yは、交点922から抽出領域データ611に最も近い判別面601上の点921の位置まで、判別面601に沿って交点922を移動させた場合の、交点922の位置と点921の位置との間の距離を示している。点921は、特徴量空間に分布する抽出領域データ群を判別面601により2つにグルーピングした場合の、一方のグループに属する抽出領域データ群のうち、判別面601に最も近い抽出領域データ611の位置に基づいて決定される点である。
第1の実施形態では、未確定の抽出領域データを医師等に提示するにあたり、指標xと指標yとを用いる。指標x及び指標yは、特徴量空間における点921の位置を基準の値とした場合の、当該基準の値に対する各抽出領域データの離れ具合を示す指標である。なお、基準の値として、点921の位置に代えて、抽出領域データ611の位置を用いても構わない。
ここで、指標xと抽出領域データとの関係について説明する。図10は、指標xと未確定の抽出領域データとの関係を説明するための図である。図10において、グラフ1010、グラフ1020は、それぞれ、横軸(x軸)に指標xをとり、縦軸(y軸)に指標xの各値に対する未確定の抽出領域データの個数をとったものである。
グラフ1010は、判別面601に最も近い抽出領域データ611から見て、判別面601の反対側に分布する未確定の抽出領域データの個数を表したものである。なお、未確定の抽出領域データの個数は、クラスαと判定されるべき抽出領域データの個数と、クラスβと判定されるべき抽出領域データの個数とを分けて示している。
グラフ1020は、判別面601に最も近い抽出領域データ611から見て、判別面601の内側に分布する未確定の抽出領域データの個数を表したものである。
グラフ1020から分かるように、抽出領域データ611から見て、判別面601の内側に分布する未確定の抽出領域データは、抽出領域データ611と同じクラス(クラスβ)と判定されるべき未確定の抽出領域データのみが分布している。
一方、グラフ1010から分かるように、抽出領域データ611から見て、判別面601の反対側に分布する未確定の抽出領域データには、クラスαと判定されるべき抽出領域データと、クラスβと判定されるべき抽出領域データとが分布している。
したがって、グラフ1010とグラフ1020とによれば、判別面601は、特徴量空間において、クラスβと判定されるべき抽出領域データが分布している領域内を横断しているということがわかる。
また、図10において、グラフ1030は、グラフ1010を左右反転させて、グラフ1020と結合したグラフを示している。グラフ1030において、領域Iは、抽出領域データ611から見て、判別面601の反対側の領域を示している。また、領域IIは、抽出領域データ611から見て、判別面601の内側の領域を示している。
グラフ1030によれば、特徴量空間においてクラスβと判定されるべき抽出領域データが分布している領域内を、判別面601が横断することがないようにするためには、判別面601が、点線1031に近づくようにすればよい。つまり、クラスβと判定されるべき未確定の抽出領域データのうち、ハッチング領域1032に含まれる抽出領域データであって、点線1031により近い抽出領域データについて、医師等がクラスの判断を行えばよい。
しかしながら、ハッチング領域1032に含まれる抽出領域データは、クラスαと判定されるべき抽出領域データと、クラスβと判定されるべき抽出領域データとが混在している。
そこで、第1の実施形態では、抽出領域データ611の近傍の抽出領域データの分布を、判別面601に沿った方向で見た場合に以下のような性質を有していることを利用して、各クラスの抽出領域データを分離させる。
・抽出領域データ611近傍に分布する抽出領域データを、判別面601に沿った方向で見た場合、抽出領域データ611に近い位置には、クラスβと判定されるべき抽出領域データが分布している。
・抽出領域データ611近傍に分布する抽出領域データを、判別面601に沿った方向で見た場合、抽出領域データ611から離れた位置には、クラスαと判定されるべき抽出領域データが分布している。
図11は、上記性質を示した図であり、指標yと未確定の抽出領域データとの関係を説明するための図である。図11に示すように、指標yが小さい場合(判別面601に沿った方向で見た場合に、抽出領域データ611に近い位置には)、クラスβと判定されるべき抽出領域データが分布している。一方、指標yが大きい場合(判別面601に沿った方向で見た場合に、抽出領域データ611から離れた位置には)、クラスαと判定されるべき抽出領域データが分布している。
なお、上記性質は、特徴量空間において、クラスβと判定されるべき抽出領域データが分布している領域内を、判別面601が横断していることに起因するものである。
このように、判別面601に沿った方向(すなわち、指標y)に基づいて、未確定の抽出領域データをプロットすることで、ハッチング領域1032に含まれる抽出領域データを、クラスごとに分けて表示することが可能となる。
図10及び図11の説明から明らかなように、指標xと指標yとを用いれば、以下のことが導き出される。
・クラスβと判定されるべき未確定の抽出領域データを、指標xを用いてプロットすることで、抽出領域データ611から離れた位置に分布する抽出領域データを、医師等が容易に認識できるように提示することができる。
・指標yを用いて未確定の抽出領域データを配置することで、クラスβと判定されるべき未確定の抽出領域データを、クラスαと判定されるべき未確定の抽出領域データと混在させることなく、医師等に提示することができる。
そこで、第1の実施形態では、指標xと指標yとが略直交する2次元平面を形成し、当該2次元平面を用いて、未確定の抽出領域データを提示する。
図12は、第1の実施形態における提示方法を説明するための図である。図12に示すように、第1の実施形態における提示方法では、横軸を指標xとし、縦軸を指標yとする2次元平面1200により、未確定の抽出領域データを提示する。なお、横軸と縦軸との交点は、抽出領域データ611に最も近い判別面601上の点921の位置を示している。
2次元平面1200において、領域Iには、抽出領域データ611から見て判別面601の反対側に分布する個々の抽出領域データ(主に、丸印で示した抽出領域データ)がプロットされることになる。また、2次元平面1200において、領域IIには、抽出領域データ611から見て判別面601の内側に分布する個々の抽出領域データ(三角印で示した抽出領域データ)がプロットされることになる。
なお、領域Iには、丸印で示した抽出領域データに加え、三角印で示した抽出領域データも一部含まれている。ただし、指標xと指標yとを用いた2次元平面1200においては、丸印で示した個々の抽出領域データがプロットされる領域Iaと、三角印で示した個々の抽出領域データがプロットされる領域Ibとは分離されている。
このため、2次元平面1200を視認すれば、境界面を変更した際の判定精度の改善効果が大きい未確定の抽出領域データとして、以下の条件を満たす抽出領域データ711を、医師等は容易に認識することができる。
・判別面601に最も近い抽出領域データ611から見て、判別面601の反対側に分布する抽出領域データ、かつ
・抽出領域データ611のクラスと同じクラスと判定されるべき抽出領域データ、かつ
・判別面601から最も離れた位置に分布する抽出領域データ。
次に、上記提示方法を実現する画像解析装置121の症例データ生成支援部121−1の機能構成について説明する。図13は、画像解析装置の機能構成の一例を示す図である。
図13に示すように、画像解析装置121の症例データ生成支援部121−1は、データ読み出し部1301、グルーピング処理部1302、可視化部1303、変更部1304、出力部1305を含む。
データ読み出し部1301は、CT画像データ格納用DB114−1に格納された抽出領域データを読み出す。データ読み出し部1301は、学習モデルにおいて境界面を算出する際には、腫瘍領域であるか否かが既知の抽出領域データ(クラス既知の抽出領域データ)を読み出す。また、境界面を変更する際には、腫瘍領域であるか否かが未知の抽出領域データ(クラス未知の抽出領域データ)を読み出す。
グルーピング処理部1302は、SVM等の学習モデルを有し、データ読み出し部1301により読み出されたクラス既知の抽出領域データに基づいて、それぞれのクラスの境界を表す境界面を算出する。また、グルーピング処理部1302は、算出したそれぞれのクラスの境界面の間の中間面である、判別面を算出し、可視化部1303に通知する。更に、グルーピング処理部1302は、データ読み出し部1301により読み出されたクラス未知の抽出領域データについて、クラス判定処理を行い、未確定の抽出領域データを可視化部1303に通知する。
可視化部1303は、グルーピング処理部1302により通知された未確定の抽出領域データを、医師等に提示する。可視化部1303は、医師等に未確定の抽出領域データを提示するにあたり、判別面601に最も近いN個の抽出領域データを抽出する。そして、N個の抽出領域データそれぞれを、近傍のn個の未確定の抽出領域データとともに、2次元平面1200にプロットして、医師等に提示する。
変更部1304は、N個の2次元平面1200それぞれにおいて、医師等が、判別面601から離れていると判断した抽出領域データ(境界面を変更した際の判定精度の改善効果が大きいと判断した抽出領域データ)についての選択を受け付ける。また、変更部1304は、選択を受け付けた抽出領域データについて、判定されるべきクラスについて医師等が判断した判断結果を受け付ける。更に、変更部1304は、受け付けた判断結果をグルーピング処理部1302に通知する。これにより、グルーピング処理部1302は、新たにクラスが通知された抽出領域データをクラス既知の抽出領域データに含めて、境界面を再度算出する。つまり、グルーピング処理部1302は、医師等による判断結果を反映した境界面を再度算出する。
出力部1305は、グルーピング処理部1302により算出された、境界面を規定するパラメータを、症例データ検索用DB114−2に登録する。また、出力部1305は、グルーピング処理部1302により判定された抽出領域データを、症例データ検索用DB114−2の"画像データ"に登録する。
次に、画像解析装置121の症例データ生成支援部121−1による、症例データ生成支援処理の流れについて説明する。図14は、症例データ生成支援処理のフローチャートである。
ステップS1401において、データ読み出し部1301は、CT画像データ格納用DB114−1に格納された抽出領域データであって、腫瘍領域であるか否かが既知の抽出領域データを、クラス既知の抽出領域データとして読み出す。また、データ読み出し部1301は、CT画像データ格納用DB114−1に格納された抽出領域データであって、腫瘍領域であるか否かが未知の抽出領域データを、クラス未知の抽出領域データとして読み出す。
ステップS1402において、グルーピング処理部1302は、ステップS1401において読み出した、クラス既知の抽出領域データについて、SVM処理を実行し、クラスαの境界を表す境界面とクラスβの境界を表す境界面とを算出する。また、グルーピング処理部1302は、算出したクラスαの境界を表す境界面とクラスβの境界を表す境界面とに基づいて、判別面を算出する。
ステップS1403において、グルーピング処理部1302は、ステップS1401において読み出した、クラス未知の抽出領域データについて、ステップS1402において算出した境界面を用いてクラスを判定する。グルーピング処理部1302は、クラス未知の抽出領域データのうち、境界面の内側にある抽出領域データについてクラスを確定する。具体的には、クラスαの境界を表す境界面の内側にある抽出領域データのクラスについては、クラスαと確定する。また、クラスβの境界を表す境界面の内側にある抽出領域データのクラスについては、クラスβと確定する。
ステップS1404において、グルーピング処理部1302は、クラス未知の抽出領域データすべてについて、クラスが確定できたか否かを判定する。
ステップS1404において、クラスが確定できていない抽出領域データがあると判定した場合には(ステップS1404においてNo)、ステップS1405に進む。ステップS1405において、グルーピング処理部1302は、未確定の抽出領域データのうち、ステップS1402において算出した判別面に最も近いN個の抽出領域データを表示装置122に表示する。
ステップS1406において、可視化部1303は、表示装置122に表示されたN個の抽出領域データに基づいて、N個の抽出領域データそれぞれについて、近傍のn個の抽出領域データとともに2次元平面1200にプロットすることで可視化する。また、変更部1304は、医師等により選択された抽出領域データについて、医師等により判断されたクラスの判断結果を受け付ける。なお、ステップS1406の可視化及び変更処理の詳細は後述する。
ステップS1407において、グルーピング処理部1302は、ステップS1406において、新たにクラスが確定した抽出領域データを、クラス既知の抽出領域データに含めて、SVM処理を実行し境界面及び判別面を再度算出する。
ステップS1408において、グルーピング処理部1302は、ステップS1401において読み出した、クラス未知の抽出領域データについて、ステップS1407において再度算出した境界面を用いてクラスを判定する。グルーピング処理部1302は、クラス未知の抽出領域データのうち、境界面の内側にある抽出領域データのクラスを確定し、ステップS1404に戻る。
ステップS1404において、グルーピング処理部1302は、クラス未知の抽出領域データすべてについて、クラスが確定できたか否かを判定する。ステップS1404において、クラスが確定できていない抽出領域データがあると判定した場合には(ステップS1404においてNo)、ステップS1405〜ステップS1408までの処理を繰り返す。
一方、ステップS1404において、クラス未知の抽出領域データすべてについて、クラスが確定できたと判定した場合には(ステップS1404においてYes)、ステップS1409に進む。
ステップS1409において、出力部1305は、クラス名が付与された抽出領域データを出力する。
次に、可視化及び変更処理(図14のステップS1406)の詳細について説明する。図15は、可視化及び変更処理のフローチャートである。
ステップS1501において、可視化部1303は、ステップS1405において提示されたN個の抽出領域データについて、可視化処理を行うか否かを判定する。医師等により、可視化処理を行う旨の指示が入力された場合には(ステップS1501においてYes)、可視化処理を行うと判定し、ステップS1502に進む。一方、可視化処理を行わない旨の指示が入力された場合には(ステップS1501においてNo)、ステップS1505に進む。
ステップS1502において、可視化部1303は、可視化処理を実行する。なお、可視化処理の詳細は後述する。
ステップS1503において、可視化部1303は、ステップS1502における可視化処理によりそれぞれ可視化されたN個の抽出領域データの近傍のn個の抽出領域データのうち、医師等により選択された抽出領域データを識別する。
ステップS1504において、変更部1304は、ステップS1503において識別された抽出領域データについて、医師等により指示されたクラスを識別する。これにより、医師等により選択された抽出領域データのクラスが確定する。
一方、ステップS1505において、変更部1304は、N個の抽出領域データそれぞれについて、医師等により指示されたクラスを識別する。これにより、N個の抽出領域データのクラスが確定する。
次に、可視化処理(図15のステップS1502)の詳細について説明する。図16は、可視化処理の第1のフローチャートである。なお、図16に示す可視化処理は、ステップS1404において提示されたN個の抽出領域データ(以下、提示データと称す)それぞれについて実行されるものとする。ここでは、説明の簡略化のため、提示されたN個の提示データのうち、1の提示データについて可視化処理を行う場合について説明する。
ステップS1601において、可視化部1303は、提示データの近傍にある抽出領域データをn個抽出する。
ステップS1602において、可視化部1303は、ステップS1601において抽出したn個の抽出領域データについて、指標xと指標yとを算出する。
ステップS1603において、可視化部1303は、n個の抽出領域データのうち、提示データから見た場合に、判別面601に対して反対側に分布している個々の抽出領域データについて、領域Iにプロットする。
ステップS1604において、可視化部1303は、n個の抽出領域データのうち、提示データから見た場合に、判別面601の内側に分布している個々の抽出領域データについて、領域IIにプロットする。
ステップS1605において、可視化部1303は、n個の抽出領域データがプロットされた可視化結果を、表示装置122に表示する。
図17は、可視化結果の一例を示す第1の図である。図17に示すように、可視化部1303による可視化結果によれば、領域Iにおいて、クラスαと判定されるべき抽出領域データと、クラスβと判定されるべき抽出領域データとを分離して表示することができる。また、領域Iにおいて、判別面から離れた位置に分布している、クラスβと判定されるべき抽出領域データを、容易に認識することができる。
これにより、医師等は、境界面を変更した際の改善効果の大きい抽出領域データを容易に選択することができる。
以上の説明から明らかなように、画像解析装置121によれば、複数の抽出領域データを2つにグルーピングする境界面から導出される判別面に対する、各抽出領域データの離れ度合いを示す軸に沿って、個々の抽出領域データをプロットして表示する。
これにより、画像解析装置121によれば、医師等は、改善効果の大きいデータを容易に選択できるようになり、境界面を変更する変更回数を低減させることができる。つまり、複数の抽出領域データを2つにグルーピングする境界面を変更する際の医師等による作業を、支援することができる。
[第2の実施形態]
上記第1の実施形態では、可視化部1303による可視化処理において、判別面からの距離(指標x)と、提示データからの距離(指標y)とを算出してプロットした。これに対して、第2の実施形態では、判別面からの距離(指標x)を算出し、算出した距離(指標x)に応じてプロットを行う。ただし、この場合、距離(指標x)が同じとすると、プロットした位置において、抽出領域データが重なって表示されることになる。そこで、第2の実施形態では、距離(指標x)が同じまたは概ね同じ抽出領域データについては、x軸方向と略直交する方向(y軸方向)にずらして表示する。以下、第2の実施形態について、上記第1の実施形態との相違点を中心に説明する。
はじめに、第2の実施形態における可視化処理(図15のステップS1502)の詳細について説明する。図18は、可視化処理の第2のフローチャートである。なお、上記第1の実施形態同様、図18に示す可視化処理は、ステップS1405において提示されたN個の提示データそれぞれについて実行されるものとする。ここでは、説明の簡略化のため、1の提示データについて可視化処理を行う場合について説明する。
ステップS1601において、可視化部1303は、提示データの近傍にある抽出領域データをn個抽出する。
ステップS1801において、可視化部1303は、ステップS1601において抽出したn個の抽出領域データについて、指標xを算出する。
ステップS1802において、可視化部1303は、n個の抽出領域データのうち、提示データから見た場合に、判別面601に対して反対側に分布している個々の抽出領域データについて、領域Iにプロットする。
このとき、可視化部1303は、距離(指標x)が同じまたは概ね同じ抽出領域データであって、重なって表示される可能性のある抽出領域データについては、x軸方向と略直交する方向にずらして表示する。
ステップS1803において、可視化部1303は、n個の抽出領域データのうち、提示データから見た場合に、判別面601の内側に分布している個々の抽出領域データについて、領域IIにプロットする。
このとき、可視化部1303は、距離(指標x)が同じまたは概ね同じ抽出領域データであって、重なって表示される可能性のある抽出領域データについては、x軸方向と略直交する方向にずらして表示する。
ステップS1804において、可視化部1303は、n個の抽出領域データがプロットされた可視化結果を、表示装置122に表示する。
図19は、可視化結果の一例を示す第2の図である。図19に示すように、可視化部1303による可視化結果によれば、領域Iにおいて、クラスαと判定されるべき抽出領域データと、クラスβと判定されるべき抽出領域データとを分離して表示することができる。また、領域Iにおいて、判別面から離れた位置に分布している、クラスβと判定されるべき抽出領域データを、容易に認識することができる。
これにより、医師等は、境界面を変更した際の改善効果の大きい抽出領域データを容易に選択することができる。
以上の説明から明らかなように、画像解析装置121によれば、複数の抽出領域データを2つにグルーピングする境界面から導出される判別面に対する、各抽出領域データの離れ度合を示す軸に沿って、個々の抽出領域データをプロットして表示する。
これにより、画像解析装置121によれば、医師等は、改善効果の大きいデータを容易に選択できるようになり、境界面を変更する変更回数を低減させることができる。つまり、複数の抽出領域データを2つにグルーピングする境界面を変更する際の医師等による作業を、支援することができる。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
100 :診断支援システム
110 :CT画像撮影システム
111 :CT装置
112 :画像処理装置
113 :表示装置
114 :記憶装置
114−1 :CT画像データ格納用DB
114−2 :症例データ検索用DB
120 :症例データ生成支援システム
121 :画像解析装置
121−1 :症例データ生成支援部
122 :表示装置
601〜603 :判別面
1301 :データ読み出し部
1302 :グルーピング処理部
1303 :可視化部
1304 :変更部
1305 :出力部

Claims (5)

  1. 複数種類の特徴量で表現された画像データの群を特徴量空間上で2つにグルーピングする判別面に対する基準となる値を、前記特徴量空間上で第1のグループにグルーピングされた前記画像データの群のうち、前記判別面に最も近い画像データの特徴量に基づいて決定し、
    前記画像データの群における個々の画像データの、前記基準となる値に対する離れ度合を示す軸に沿って、該個々の画像データをプロットして表示し、
    表示した前記プロットのうちのいずれかの特定を受け付け、該特定を受け付けた1のプロットに対応する画像データに基づいて、前記判別面を変更する、
    処理をコンピュータに実行させる症例データ生成支援プログラム。
  2. 前記個々の画像データの、前記基準となる値に対する離れ度合を示す2つの軸により形成される2次元平面に、前記個々の画像データをプロットして表示することを特徴とする請求項1に記載の症例データ生成支援プログラム。
  3. 前記個々の画像データの、前記基準となる値に対する離れ度合を示す1つの軸に沿って、前記個々の画像データをプロットして表示するにあたり、プロットされた画像データが重なって表示される可能性がある場合には、該1つの軸に略直交する方向にずらして、該画像データをプロットして表示することを特徴とする請求項1に記載の症例データ生成支援プログラム。
  4. 複数種類の特徴量で表現された画像データの群を特徴量空間上で2つにグルーピングする判別面に対する基準となる値を、前記特徴量空間上で第1のグループにグルーピングされた前記画像データの群のうち、前記判別面に最も近い画像データの特徴量に基づいて決定する手段と、
    前記画像データの群における個々の画像データの、前記基準となる値に対する離れ度合を示す軸に沿って、該個々の画像データをプロットして表示する手段と、
    表示した前記プロットのうちのいずれかの特定を受け付け、該特定を受け付けた1のプロットに対応する画像データに基づいて、前記判別面を変更する手段と、
    を有することを特徴とする症例データ生成支援システム。
  5. コンピュータが、
    複数種類の特徴量で表現された画像データの群を特徴量空間上で2つにグルーピングする判別面に対する基準となる値を、前記特徴量空間上で第1のグループにグルーピングされた前記画像データの群のうち、前記判別面に最も近い画像データの特徴量に基づいて決定し、
    前記画像データの群における個々の画像データの、前記基準となる値に対する離れ度合を示す軸に沿って、該個々の画像データをプロットして表示し、
    表示した前記プロットのうちのいずれかの特定を受け付け、該特定を受け付けた1のプロットに対応する画像データに基づいて、前記判別面を変更する、
    処理を実行することを特徴とする症例データ生成支援方法。
JP2017552625A 2015-11-27 2015-11-27 症例データ生成支援プログラム、症例データ生成支援システム及び症例データ生成支援方法 Active JP6575605B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/083328 WO2017090170A1 (ja) 2015-11-27 2015-11-27 症例データ生成支援プログラム、症例データ生成支援システム及び症例データ生成支援方法

Publications (2)

Publication Number Publication Date
JPWO2017090170A1 JPWO2017090170A1 (ja) 2018-09-13
JP6575605B2 true JP6575605B2 (ja) 2019-09-18

Family

ID=58764118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017552625A Active JP6575605B2 (ja) 2015-11-27 2015-11-27 症例データ生成支援プログラム、症例データ生成支援システム及び症例データ生成支援方法

Country Status (3)

Country Link
US (1) US10713539B2 (ja)
JP (1) JP6575605B2 (ja)
WO (1) WO2017090170A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023119562A1 (ja) * 2021-12-23 2023-06-29 日本電気株式会社 学習装置、ストレス推定装置、学習方法、ストレス推定方法及び記憶媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3779519B2 (ja) 2000-03-07 2006-05-31 株式会社山武 データ領域の解析方法及び表現方法
JP2005198970A (ja) 2004-01-19 2005-07-28 Konica Minolta Medical & Graphic Inc 医用画像処理装置
JP4859351B2 (ja) 2004-06-14 2012-01-25 財団法人電力中央研究所 事例データベースの構築方法、判別装置の学習方法、データ判別支援装置、データ判別支援プログラム
JP4493679B2 (ja) 2007-03-29 2010-06-30 富士フイルム株式会社 対象領域抽出方法および装置ならびにプログラム
JP2008253292A (ja) 2007-03-30 2008-10-23 Fujifilm Corp 症例画像検索装置及びシステム
JP4946750B2 (ja) * 2007-09-14 2012-06-06 セイコーエプソン株式会社 設定方法、識別方法及びプログラム
WO2010030794A1 (en) * 2008-09-10 2010-03-18 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data
JP5868231B2 (ja) 2012-03-16 2016-02-24 株式会社日立製作所 医用画像診断支援装置、医用画像診断支援方法ならびにコンピュータプログラム

Also Published As

Publication number Publication date
JPWO2017090170A1 (ja) 2018-09-13
US20180268263A1 (en) 2018-09-20
WO2017090170A1 (ja) 2017-06-01
US10713539B2 (en) 2020-07-14

Similar Documents

Publication Publication Date Title
CN105167793B (zh) 图像显示装置、显示控制装置及显示控制方法
JP5263995B2 (ja) ネットワーク構築装置および方法ならびにプログラム
US20120166462A1 (en) Automated image data processing and visualization
US9373181B2 (en) System and method for enhanced viewing of rib metastasis
WO2018163633A1 (ja) 類似症例画像検索プログラム、類似症例画像検索装置及び類似症例画像検索方法
JP5323795B2 (ja) 診断支援装置、診断支援プログラムおよび診断支援方法
JP2011212156A (ja) 投影画像生成装置、投影画像生成プログラムおよび投影画像生成方法
US9261441B2 (en) Generating a slicing scheme for slicing a specimen
JP5934071B2 (ja) 管状構造の最短経路探索装置および方法並びにプログラム
JP5700964B2 (ja) 医用画像処理装置、方法およびプログラム
JP6495037B2 (ja) 医用画像処理装置及び医用画像診断装置
KR20150125436A (ko) 관심 영역별 추가 정보 제공 장치 및 방법
EP3373194B1 (en) Image retrieval apparatus and image retrieval method
JP7099238B2 (ja) 医用画像処理プログラム、医用画像処理装置及び医用画像処理方法
JP2010000133A (ja) 画像表示装置、画像表示方法及びプログラム
EP2609862B1 (en) Determination of a center of rotation
EP4156089A1 (en) Method, device and system for automated processing of medical images to output alerts for detected dissimilarities
JP6575605B2 (ja) 症例データ生成支援プログラム、症例データ生成支援システム及び症例データ生成支援方法
JP6440386B2 (ja) 情報処理装置及びプログラム
US9585569B2 (en) Virtual endoscopic projection image generating device, method and program
KR20180115122A (ko) 이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법
CN113592768A (zh) 肋骨骨折检测方法、肋骨骨折检测信息的显示方法及系统
JP2017099721A (ja) 画像処理装置及び画像処理方法
JP2017164043A (ja) 類似画像検索プログラム、類似画像検索方法、及び類似画像検索装置
JP2005087470A (ja) 異常陰影候補検出装置およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190805

R150 Certificate of patent or registration of utility model

Ref document number: 6575605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150