JP2019097805A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2019097805A
JP2019097805A JP2017230994A JP2017230994A JP2019097805A JP 2019097805 A JP2019097805 A JP 2019097805A JP 2017230994 A JP2017230994 A JP 2017230994A JP 2017230994 A JP2017230994 A JP 2017230994A JP 2019097805 A JP2019097805 A JP 2019097805A
Authority
JP
Japan
Prior art keywords
image
inference
feature amount
information processing
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017230994A
Other languages
English (en)
Other versions
JP7058988B2 (ja
Inventor
菊地 徹
Toru Kikuchi
徹 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017230994A priority Critical patent/JP7058988B2/ja
Priority to US16/767,093 priority patent/US11527328B2/en
Priority to PCT/JP2018/042398 priority patent/WO2019107177A1/en
Publication of JP2019097805A publication Critical patent/JP2019097805A/ja
Application granted granted Critical
Publication of JP7058988B2 publication Critical patent/JP7058988B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】 医用画像から診断名を推論する場合においても、診断名の推論結果に影響度が高い画像所見を参考情報として提示する。【解決手段】 医用画像の特徴を示す値である画像特徴量に基づいて医用画像から導かれる診断名を推論し、画像特徴量に基づいて医用画像の特徴を表現する画像所見を推論し、第1の推論手段による診断名の推論に影響を与えた画像特徴量と共通する画像特徴量が影響を与えて第2の推論手段により推論された画像所見と診断名とをユーザに提示する。【選択図】 図3

Description

本明細書の開示は、情報処理装置、情報処理方法およびプログラムに関する。
計算機で医用画像を解析し、医師が医用画像を観察して診察を行う読影の助けとなる情報を提示するコンピュータ支援診断(Computer Aided Diagnosis:CAD)システムが知られている。特許文献1には、診断名など特定のキーワードと予め対応付けられた情報を診断名に対する参考情報としてレポートに出力することが開示されている。
特開2012−94127
特許文献1に開示の技術では、医用画像から診断名が推論されるCADシステムにおける、推論に関連する画像所見の情報のように、キーワードとして特定されない情報を、診断名に対する参考情報として提示することができないおそれがある。
本発明の実施形態に係る情報処理装置は、医用画像の特徴を示す値である画像特徴量に基づいて、前記医用画像から導かれる診断名を推論する第1の推論手段と、前記画像特徴量に基づいて、前記医用画像の特徴を表現する画像所見を推論する第2の推論手段と、前記第1の推論手段による前記診断名の推論に影響を与えた画像特徴量と共通する画像特徴量が、影響を与えて前記第2の推論手段により推論された画像所見と、前記診断名とをユーザに提示する提示手段と、を有することを特徴とする。
本発明の実施形態の一つによれば、医用画像から診断名を推論する場合においても、診断名の推論結果とともに、推論に関連する画像所見の情報を参考情報として提示できるため、医師は推論の結果が診断に有用であるか否かを判断することができる。
実施形態1及び2の情報処理装置を含む情報処理システムのシステム構成の一例を示す図 実施形態1及び2の情報処理装置のハードウェア構成の一例を示す図 実施形態1及び2の情報処理装置の機能ブロックの一例を示す図 実施形態1及び2の医用画像データの構成の一例を示す図 実施形態1及び2の画像所見、診断名のデータの定義の一例を示す図 実施形態1及び2の情報処理装置により表示される画面の一例を示す図 実施形態1及び2の情報処理装置により行われる処理の一例を示すフロー図 実施形態1及び2の情報処理装置により行われる処理の一例を示すフロー図 実施形態1及び2の情報処理装置の特徴量取得部及び推論部の一例を説明するための図
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。尚、特に断らない限り、他の実施形態等で説明した項目については、同一の番号を付し、その説明を省略する。また、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
<実施形態1>
医用画像から診断名を推論し提示するCADシステムにおいて、推論結果として提示された診断名が、医師による診断に対して有用であるか否かを把握できることが望ましい。
実施形態1では、胸部X線CT(Computed Tomography)画像上の肺結節影に関する診断名の推論を行うCADシステムである情報処理装置について説明する。本実施形態の情報処理装置は、取得した医用画像データを表示し、ユーザ入力に基づいて病変位置を取得し、取得した病変位置に対する画像から診断名の推論を行い、診断名と参考情報となる画像所見を提示するように動作する。
(システム構成)
図1は、本実施形態の情報処理装置101を含む情報処理システムのシステム構成図である。
図1において、情報処理システムは、医用画像データベース(以降、医用画像DBと呼ぶ)102、情報処理装置101、LAN(Local Area Network)103から構成される。
医用画像DB102は、CT(Computed Tomography)装置など医用画像の撮像装置で撮影された医用画像データを記憶する。また、医用画像データを、LAN103を介して検索、取得するための既知のデータベース機能を提供する。
(ハードウェア構成)
図2は、本実施形態の情報処理装置101のハードウェア構成図である。
図2において、記憶媒体201は、OS(Operating System)や本実施形態に係る各種処理を行うための処理プログラム、各種情報を記憶するHDD(Hard Disk Drive)等の記憶媒体である。ROM(Read Only Memory)202はBIOS(Basic Input Output System)等、ハードウェアを初期化しOSを起動するためのプログラムを記憶する。CPU(Central Processing Unit)203はBIOSやOS、処理プログラムを実行する際の演算処理を行う。RAM(Random Access Memory)204は、CPU203がプログラムを実行する際の情報を一時記憶する。LANインタフェース205は、IEEE(Institute of Electrical and Electronics Engineers)802.3ab等の規格に対応し、LAN 103を介して通信を行うためのインタフェースである。207は表示画面を表示するディプレイであり、206はディスプレイ207に表示する画面情報を信号に変換し出力するディスプレイインタフェースである。209はキー入力を行うキーボード、210は画面上の座標位置を指定及び画像位置に対応付けられたボタン操作の入力を行うマウス、208はキーボード209及びマウス210からの信号を受信するための入力インタフェースである。211は、各ブロックが通信を行うための内部バスである。CPU203はプロセッサの一例である。情報処理装置101は、CPU203に加えて、GPUやFPGA(Field−Programmable Gate Array)の少なくともいずれかを有していてもよい。情報処理装置101は、推論にかかる処理を専用に行うGPUやFPGAを有していてもよい。ROM202、RAM204はメモリの一例である。
(医用画像データの構成)
図4は、医用画像DB102に記憶される医用画像データの構成の一例を示す図である。
図4において、医用画像データ410−i(i=1,...,Ni)は、医用画像DB102に複数記憶され、複数のシリーズ画像データ420−i(i=1,...,Nsr)から構成される。更に、シリーズ画像データ420−i(i=1,...,Nsr)は、複数のスライス画像データ430−i(i=1,...,Nsl)から構成される。更に、スライス画像データ430−i(i=1,...,Nsl)は、患者情報440、検査情報450、シリーズ画像識別子(以降、ID)431、スライス画像ID432、スライス画像RAWデータ433から構成される。ここで、スライス画像ID432は、1枚の断面の画像を一意に識別する識別子であり、シリーズ画像ID431は、1回の撮影で得られる複数のスライス画像を一意に識別する識別子である。図4の例では、シリーズ画像ID431の値は「ser0123456」、スライス画像ID432の値は「slc0123456」となる。また、スライス画像RAWデータ433はスライス画像の画素値が所定の順番で並べられたデータである。また、患者情報440は、患者ID441、患者氏名442、その他当該症例の患者に関する不図示の情報から構成される。図4の例では、患者ID441の値は「pat0123456」、患者氏名442の値は「下丸子 太郎」となる。また、検査情報450は、検査ID451、検査日時452、その他当該症例の検査に関する不図示の情報から構成される。図4の例では、検査ID451の値は「case0123456」、検査日時452の値は「2012/3/4 12:34」となる。
(画像所見、診断名のデータの定義)
図5は、本実施形態の画像所見と診断名の定義の一例を示す図である。
図5において501は画像所見の種別と値を定義する情報であり、502は診断名の値を定義する情報である。画像所見501は画像所見種別と画像所見値から構成される。画像所見値とは、ある医用画像に描出されている画像所見種別に関する特徴を表現する文言である。図5の例では、画像所見種別が「形状」の場合には、画像所見値が「球形」、「類球形」、「不整形」、「分葉形」等の何れかとなり、画像所見種別が「スピキュラ」や「空洞」の場合には、画像所見値が「あり」、「なし」の何れかとなることを示している。また、診断名502は、診断名の値が「原発性肺癌」、「転移性肺癌」、「良性結節」の何れかとなることを示している。
(表示画面)
図6は、本実施形態の情報処理装置101の表示画面の一例を示す図である。
図6において、表示画面600はディスプレイ207に表示されるユーザインタフェース画面である。表示画面600は、患者情報表示領域601、検査情報表示領域602、シリーズ画像表示領域603、画像表示領域604、病変位置指定ボタン621、診断支援ボタン622から構成される。
患者情報表示領域601には、医用画像データ410−i(i=1,...,Ni)の患者情報440の情報を表示する。図6の例では、患者氏名が「下丸子 太郎」、患者IDが「pat0123456」、年齢が「75歳」、性別が「男」となる。
検査情報表示領域602には、医用画像データ410−i(i=1,...,Ni)の検査情報450の情報を表示する。図6の例では、検査種別が「単純CT」、検査部位が「胸部」、検査日が「2012年3月4日 12:34」、コメントが「長引く咳嗽にて来院。・・・」となる。
シリーズ画像表示領域603には、医用画像データ410−i(i=1,...,Ni)のシリーズ画像データ420−i(i=1,...,Nsr)毎に、先頭のスライス画像RAWデータ433の縮小画像611−i(i=1,...,Nsr)を表示する。
画像表示領域604には、シリーズ画像表示領域603で選択された縮小画像611−i(i=1,...,Nsr)に対応するシリーズ画像データ420−i(i=1,...,Nsr)のスライス画像RAWデータ433を表示する。また、表示するスライス画像のスクロールやWL(Window Level)/WW(Window Width)と呼ばれる階調表示条件の変更など表示の変更ができる。
病変位置指定ボタン621は、画像表示領域604上で病変位置を指定するためのボタンであり、病変位置指定ボタン621をマウスクリックして画像表示領域604上でマウスドラッグを行うことで病変位置631を指定できる。
診断支援ボタン622は、病変位置631の画像から診断名の推論を行うためのボタンであり、診断支援ボタン622をマウスクリックすると、病変位置631の画像から診断名の推論を行い、参考情報である画像所見と共に診断支援結果641が表示される。図6の例では、診断支援結果641に、診断推論結果として原発性肺癌の確率が「83%」、転移性肺癌の確率が「12%」、良性結節の確率が「5%」であると表示されており、当該推論結果に対する参考情報となる画像所見として「形状:不整形」、「スピキュラ:あり」、「空洞:なし」が表示されている。
(機能ブロック1)
図3は、本実施形態の情報処理装置101の機能ブロック図である。
図3において、情報処理装置101は、画像取得部301、病変位置取得部302、特徴量取得部303、第1の推論部304、第2の推論部305−i(i=1,...,Nf)を含む。更に、情報処理装置101は、第1の影響度取得部306、第2の影響度取得部307−i(i=1,...,Nf)、一致度取得部308、選択部309、提示部310を含む。
画像取得部301は、LAN103を介して医用画像DB102から医用画像データ410−i(i=1,...,Ni)を取得する。
病変位置取得部302は、画像取得部301で取得した医用画像データ410−i(i=1,...,Ni)を表示画面600に表示し、ユーザによる病変位置631の指定を受ける。別の実施形態では、病変位置取得部302は医用画像データ410−iに対する画像処理を行い、病変位置631を抽出する。特徴量取得部303は、病変位置631の医用画像データ410−i(i=1,...,Ni)の画像特徴量を取得する。
特徴量取得部303により取得された画像特徴量に基づいて、第1の推論部304は診断名、第2の推論部305−i(i=1,...,Nf)は画像所見値をそれぞれ推論する。第1の推論部304は、医用画像の特徴を示す値である画像特徴量に基づいて、当該医用画像から導かれる診断名を推論する第1の推論手段の一例である。第2の推論部305−i(i=1,...,Nf)は、画像所見種別毎に画像所見値の推論を行う。第2の推論部305−iは、それぞれ異なる一つの画像所見種別に関する画像所見値の分類を与える推論部である。Nfは推論を行う画像所見種別の数を表す。画像所見種別毎に画像所見値の推論を行う推論部を設けることで、複数の画像所見種別の画像所見値を組み合わせて1つの推論部で推論を行う場合に比べて、第2の推論部305−iはそれぞれ、出力のノード数を少なくすることができる。第2の推論部305−iは、医用画像の特徴を示す値である画像特徴量に基づいて、当該医用画像の特徴を表現する文言である画像所見を推論する第2の推論手段の一例である。特徴量取得部303、第1の推論部304、第2の推論部305−i(i=1,...,Nf)の詳細については図9を用いて後述する。
別の実施形態において、第2の推論部305−iはそれぞれの画像所見種別に関する推論において、一部の処理が同一であってもよい。また別の実施形態において、第2の推論部305は、複数の画像所見種別に関する画像所見値の分類を与える推論器を含み構成されてもよい。
(特徴量取得部、推論部)
図9は、本実施形態の特徴量取得部303、第1の推論部304、第2の推論部305−i(i=1,...Nf)の概念を表す図である。特徴量取得部303、第1の推論部304、第2の推論部305−i(i=1,...Nf)は既知の多層の畳み込みニューラルネットワーク(CNN:Convolutional Neural Networks)を用いて構成される。
図9において、900は画像から診断名を推論するように機械学習したCNNの概念を示し、910は画像から画像所見(画像所見値)を推論するように機械学習したCNNの概念を示す。また、901はCNNへの入力である画像、902、904、906、916は畳み込み層の出力、903、905はプーリング層の出力を示している。また、907、917は906、916を夫々一次元に並べ替えた状態、908は全結合層、909、919はクラス分類の推論結果となる出力層を示している。
ここで、本実施形態では、画像から画像所見を推論するCNN910は、画像から診断名を推論するCNN900を転移学習することにより構築する。転移学習とは、CNNの前段の層のパラメータを固定し、後段の層のみを別の問題に対して学習させることである。図9では、診断名を推論するように学習されたネットワークの前段の層である902から905までの範囲920が固定され、905の段階以降の916から919までの範囲940が画像所見を推論するように学習されていることを示す。
上記構成のCNNにおいて、特徴量取得部303は範囲920の処理、第1の推論部304は範囲930の処理、第2の推論部305−i(i=1,...Nf)は範囲940の処理に対応する。
すなわち、CNN900は範囲920と範囲930を含み構成され、範囲920は特徴量取得部303と対応し、範囲930は第1の推論部304と対応する。CNN900は医用画像901から診断名909を推論する第3の推論手段の一例であり、第3の推論手段は、第1の推論手段を含み構成される。より詳細には、第1の推論部304に入力される画像特徴量は、CNN900(第3の推論手段)における推論過程に含まれる所定の段階において取得される値であり、第1の推論部(第1の推論手段)は、第3の推論手段における当該所定の段階以降の推論過程の推論を行う。
また、CNN910は範囲920と範囲940を含み構成され、範囲920は特徴量取得部303と対応し、範囲940は第2の推論部305−iの一つと対応する。CNN910は医用画像901から画像所見919を推論する第4の推論手段の一例であり、第4の推論手段は、第2の推論手段を含み構成される。また、上述のようにCNN910はCNN900を転移学習することにより得られる。より詳細には、CNN910(第4の推論手段)は、CNN900(第3の推論手段)における所定の段階(範囲920)までの推論過程が共通である。そして、第2の推論手段は、CNN910(第4の推論手段)のうち、当該所定の段階以降の推論過程の推論を行う。
尚、推論過程の段階(各層の処理の順番)をl、l段目の層における出力値をYとし、l段目の層における処理をY=F(Yl−1)と表す。また、1段目の層はY=F(X)、最終段はY=F(Y)とする。また、範囲930の処理については下付きのd、範囲940の処理については、画像所見毎に下付きのfn(n=1,...,Nf)を付与する。
(機能ブロック2)
図3に戻り、第1の影響度取得部306、第2の影響度取得部307−i(i=1,...,Nf)、一致度取得部308、選択部309、提示部310について説明する。
第1の影響度取得部306は、第1の推論部304の推論結果に対する画像特徴量の影響の度合いである影響度(第1の影響度)を取得する。分類結果がCd、画像特徴量を取得する層がl段目、層の出力値のチャネル番号がk、l段目の層のチャネルkの要素(i,j)の出力値をYij l,k、分類結果Cdに対応する最終層の出力値をy Cdとする。(i,j)はl段目の層で出力される画像の座標であり、その最大値(imax,jmax)は画像サイズである。図9において、y Cdは、分類結果Cdに対応する、出力層909の1つのノード(909の丸印の1つ)の出力値である。また、Yij l,kは、プーリング層(l=1の場合は903、l=3の場合は905)の出力のk枚目(903もしくは905の複数の四角形のk番目)の座標(i,j)の出力値である。チャネルkの第1の影響度α は式1で取得される。
尚、Zはimaxとjmaxの積であり、Cd=0が原発性肺癌、1が転移性肺癌、2が良性結節である。また、l段目の層のチャネルkの出力値Yij l,kを画像特徴量とする。式1はチャネルkの出力値が変化した場合に、推論結果が変化する度合いを算出する。より詳細には、式1は、チャネルkの出力の各要素値が変化した際の推論結果の変化量のフィルタ全体の平均を示す。第1の影響度取得部306は、画像特徴量が第1の推論部304(第1の推論手段)による推論結果に与えた影響の度合いを取得する第1の取得手段の一例である。
同様に、第2の影響度取得部307−i(i=1,...,Nf)は、第2の推論部305−i(i=1,...Nf)の推論結果に対する画像特徴量の影響度(第2の影響度)を取得する。分類結果Cfnに対応する最終層の出力値をyfn Cfnとすると、チャネルkの第2の影響度αfn は式2で取得される。
尚、Cfnは、例えば画像所見種別が形状の場合は、0が球形、1が類球形、2が不整形、3が分葉形、・・・、となる。第2の影響度取得部307−iは、画像特徴量が第2の推論部305−i(第2の推論手段)による推論結果に与えた影響の度合いである第2の影響度を取得する第2の取得手段の一例である。また、図9において、yfn Cfnは、分類結果Cfnに対応する、出力層919の1つのノード(919の丸印の1つ)の出力値である。
一致度取得部308は、画像所見種別の各々(n=1,...,Nf)について、第2の影響度αfn と第1の影響度α との間の一致度Psnを式3により取得する。
ここで、Nsnは、第1の影響度α と第2の影響度αfn の両者が所定の定数aを超えるチャネルkの数であり、式4で取得する。
ここで、count(A|B)は、条件Bを満たすAの数を表す。一致度取得部308は、第1の影響度と第2の影響度とに基づいて、第1の推論部304(第1の推論手段)による推論結果に与えた画像特徴量と、第2の推論部305−i(第2の推論手段)による推論結果に与えた画像特徴量と、が一致する度合いである一致度を取得する第3の取得手段の一例である。
選択部309は、一致度Psnが上位となる所定数の画像所見種別を選択する。画像所見種別が選択されることにより、当該画像所見種別と対応する第2の推論部305−iにより推論された画像所見値が選択される。所定数はユーザが不図示の設定により指定できる。一致度は第1の影響度と第2の影響度とに基づいて定まり、選択部309は、第1の影響度と第2の影響度とに基づいて取得される一致度に基づいて、画像所見を選択する選択手段の一例である。
提示部310は、第1の推論部304の推論結果である診断名と、選択部309で選択した画像所見種別に対応する第2の推論部305−i(i=1,...Nf)の推論結果である画像所見とから、診断支援結果641を作成する。診断支援結果641において、選択した画像所見は、推論結果の診断名に対する参考情報(関連情報)として配置される。また、提示部310は、診断支援結果641を表示画面600上に配置し、ディスプレイ207に表示する。一つの実施形態において、提示部310は、複数の診断名のそれぞれに対する参考情報を個別に提示する。また別の実施形態において、提示部310は、特定の診断名、例えば緊急度の高い診断名に対する参考情報を提示する。これにより、診断名の推論に影響を与えた画像特徴量と共通する画像特徴量が、影響を与えて推論された画像所見が提示される。提示部310は、画像所見と診断名とをユーザに提示する提示手段の一例である。
(メイン処理)
図7は、本実施形態の情報処理装置101により行われる処理の一例を示すフロー図である。情報処理装置101により行われるメイン処理は、情報処理装置101の起動後に最初に開始される。処理が開始されると、画像取得部301は、ステップS701において、ユーザから不図示のユーザインタフェースにより検査IDの指定を受ける。続いて、ステップS702において画像取得部301は、検査IDに基づいて医用画像DB102から医用画像データ410−i(i=1、...Ni)を取得する。
ステップS703において病変位置取得部302は、取得した医用画像データ410−i(i=1、...Ni)の患者情報440を患者情報表示領域601に表示する。ステップS704において病変位置取得部302は、検査情報450を検査情報表示領域602に表示する。ステップS705において病変位置取得部302は、医用画像データ410−i(i=1、...Ni)のシリーズ画像データ420−i(i=1、...Nsr)のそれぞれの先頭画像を、それぞれのシリーズ画像データの代表画像としてシリーズ画像表示領域603に表示する。ステップS706において病変位置取得部302は、シリーズ画像データ420−i(i=1、...Nsr)の先頭の1つ、例えばシリーズ画像データ420−1を、画像表示領域604に表示する。
ステップS707において病変位置取得部302は、ユーザがシリーズ画像を変更する操作を行ったか否かを判定する。ステップS707でシリーズ画像の変更操作が検出された場合には(S707のYes)、ステップS721において病変位置取得部302は、変更操作で指定されたシリーズ画像データ420−i(i=1、...Nsr)を画像表示領域604に表示する。ここで、シリーズ画像の変更操作とは、シリーズ画像の縮小画像611−i(i=1、...Nsr)上でのマウスの左ボタンのダブルクリックである。ステップS707でシリーズ画像の変更操作が検出されない場合(S707のNo)、或いは、ステップS721の処理が終了した場合には、ステップS708に進む。
ステップS708において病変位置取得部302は、ユーザが画像の表示を変更する操作を行ったか否かを判定する。ステップS708で画像表示の変更操作が検出された場合には(S708のYes)、ステップS722において病変位置取得部302は、画像表示領域604に表示する画像の表示を指定された表示に変更する。ここで、表示操作とは、マウスホイールの回転が画像のスクロール(表示する画像のスライス位置を変更する)操作であり、上下の矢印キー押下がWL、左右の矢印キー押下がWWの変更操作である。ステップS708において、画像表示の変更操作が検出されない場合(S708のNo)、或いは、ステップS722の処理が終了した場合には、ステップS709に進む。
ステップS709において病変位置取得部302は、ユーザが病変位置を指定する操作を行ったか否かを判定する。ステップS709で病変位置の指定操作が検出された場合には(S709のYes)、ステップS723において病変位置取得部302は、ユーザの操作に基づき病変位置631を取得する。ここで、病変位置の指定操作とは、病変位置指定ボタン621上でのマウス左ボタンのクリックに引き続く、画像表示領域604でのマウス左ボタンのドラッグである。ステップS709で病変位置の指定操作が検出されない場合(S709のNo)、或いは、ステップS723の処理が終了した場合には、ステップS710に進む。
ステップS710において病変位置取得部302は、ユーザが診断支援を指示する操作を行ったか否かを判定する。ステップS710で診断支援操作が検出された場合には(S710のYes)、ステップS724に進む。ステップS724の診断支援処理の詳細は、図8を用いて説明する。ここで、診断支援操作とは診断支援ボタン622のマウス左ボタンのクリックである。ステップS710で診断支援操作が検出されない場合(S710のNo)、或いは、ステップS724の処理が終了した場合には、ステップS711に進む。
ステップS711において病変位置取得部302は、ユーザが終了を指示する操作を行ったか否かを判定する。ステップS711で終了操作が検出されると(S711のYes)、ステップS701の処理に戻り、情報処理装置101は検査IDの指定を受け付ける。終了操作が検出されない場合(S711のNo)、ステップS707の処理に戻り、情報処理装置101はユーザによる操作の検出を繰り返す。ここで、終了操作とは、一般的なOSが提供するウインドウを閉じる操作である。
なお、病変位置取得部302が、ステップS703〜S711、S721、S722、S723の処理を行う場合を例に説明したが、本実施形態はこれに限定されない。たとえば、ステップS703〜S706、S721、S722といった、ディスプレイ207に医用画像等を表示させる処理の少なくとも一部を、病変位置取得部302ではなく表示制御部(不図示)が行ってもよい。また、ステップS707〜S711といった、ユーザによる特定の操作入力の有無を判定する処理の少なくとも一部を、病変位置取得部302ではなく判定部(不図示)が行ってもよい。
(診断支援処理)
図8は、本実施形態の情報処理装置101により行われる処理の一例を示すフロー図である。メイン処理のステップS724で行われる診断支援処理の一例を、図8を用いて説明する。ステップS801で病変位置631の取得が確認された場合には(S801のYes)、ステップS802において、特徴量取得部303が、取得した病変位置の画像から画像特徴量を取得する。次に、ステップS803において第1の推論部304は、取得した画像特徴量に基づき診断名の推論を行う。次に、ステップS804において、第2の推論部305−i(i=1,...Nf)の各々は、取得した画像特徴量に基づき画像所見を推論する。
ステップS805において、第1の影響度取得部306は、前述の式1により、第1の影響度α を取得する。次に、ステップS806において、第2の影響度取得部307−i(i=1,...,Nf)は、前述の式2により、第2の影響度αfn を取得する。
ステップS807において、一致度取得部308は、前述の式3により、一致度Psnを取得する。次に、ステップS808において、選択部309は、一致度Psnに基づき画像所見種別を選択する。
ステップS809において、提示部310は、推論した診断名と、選択部309により選択された画像所見とから診断支援結果641を作成し、表示画面600上に表示し、図7のメイン処理に戻る。また、ステップS801で病変位置631の取得が確認できない場合には(S801のNo)、処理を行わずにメイン処理に戻る。
以上説明したように、本実施形態によれば、医用画像から診断名を推論する場合においても、診断名の推論結果に影響度が高い画像所見を参考情報として提示できるため、医師は推論の結果が診断に有用であるか否かを判断することができる。
<実施形態1の変形例>
実施形態1の特徴量取得部303は、SIFT、SURF、HOG等の一般的な画像特徴量を取得し、第1の推論部304、第2の推論部305−i(i=1,...,Nf)をSVM(Support Vector Machine)としても良い。また、SVMの他、ベイズネット、ランダムフォレスト等の他の推論方式を用いてもよい。
また、転移学習による方式を用いる場合に、画像特徴量を取得する層は、転移学習の際に固定する層より前段に含まれていればよく、必ずしも一致させる必要は無い。これにより、画像特徴量を取得する層の柔軟性が高まり、より適切な画像特徴量が取得可能になる。
また、CNNを用いる場合、画像特徴量として取得する中間層の出力値が同じであればよく、転移学習させずに個別で学習させたCNNを用いてもよい。これにより、機械学習の柔軟性が高まると共に、予め取得した画像特徴量を利用した機械学習も可能となるため、機械学習の処理負荷が低減できる。
病変位置取得部302は、既知の画像解析により病変位置を自動で検出してもよい。また、病変位置取得部302は、自動で検出された病変位置からユーザが選択したものを取得してもよい。
また、影響度は、チャネル毎でなくチャネルの要素毎に求めてもよい。この場合、チャネルkの要素を(i,j)とすると、第1の影響度αdij と第2の影響度αfnij は、式5、式6となる。
式4、式5はそれぞれ、チャネルkの出力の各要素値が変化した場合に推論結果がどれだけ変化するかを示す。式4、式5で得られる値は、式1、式2で得られる値とそれぞれ比して、チャネル全体で平均されないので、チャネルの要素毎の値となる。
この場合、一致度Nsnは式7で取得される。
ここでaは所定の定数である。
上記の影響度、一致度を用いることで、画像特徴量の影響度が画像上の位置に依存する場合に、位置を考慮した一致度の取得が可能となる。
また、影響度は、式8、式9に示すように、チャネルkの要素(i,j)を0にした場合に最終層の出力が変化する割合でもよい。
上記の影響度は計算が単純なため、影響度を取得する処理の負荷低減が可能となる。
また、影響度は、複数の画像特徴量の組み合わせ毎に取得してもよい。組み合わせ毎に影響度を取得することで、複数の画像特徴量が組み合わされて影響する場合にも、それを考慮した影響度の取得が可能となる。
一致度は、式10に示すように、第1の影響度αdij と第2の影響度αfnij との積の総和でもよい。
上記の一致度は閾値を持たないため、全ての画像特徴量を考慮した一致度の取得が可能となる。
また、一致度は第1の影響度が上位となる特徴量と第2の影響度が上位となる特徴量が一致する割合でもよい(式は不図示)。また、一致度は、連続値でなく、一致するとみなすか否かの2値又は離散値でもよい。
一致度は、式3においてNsnとNとの割合で示す場合を例に説明したが、一致の度合いを表現できればよく、たとえばPsn=Nsnとしてもよい。
選択部309は全部の画像所見種別を選択し、表示部310が所定の数を表示してもよい。また、選択部309は一致度が所定値以上の画像所見種別を選択してもよい。
表示部310は、参考情報として画像所見と共に一致度を提示してもよい。一致度を提示する場合、数値を提示しても、一致度に対応付けられたラベルやアイコンを提示してもよい。
<実施形態2>
実施形態2では、実施形態1と同様に、胸部X線CT画像上の肺結節影に関する診断推論を行うCADシステムである情報処理装置について説明する。
実施形態1の情報処理装置では、画像に対して何らかの処理を施して得た値を画像特徴量として用いたが、本実施形態では、画像そのものを画像特徴量と見なして処理する画像処理装置について説明する。
尚、本実施形態に係る情報処理装置のシステム構成、ハードウェア構成、医用画像データの構成、画像所見、診断の値の定義、表示画面、メイン処理、診断支援処理フローは、実施形態1と同様であるため、説明を省略する。また、特に断らない限り、他の実施形態で説明した項目については、同一の番号を付し、その説明を省略する。
本実施形態では、画像を画像特徴量とみなすため、第1の影響度取得部306と第2の影響度取得部307−i(i=1,...,Nf)は、座標(i,j)の画素値Xijの第1の影響度αdij及び第2の影響度αfnijを、各々、式11、式12により取得する。
また、一致度取得部308は、実施形態1と同様に、画像所見種別の各々(n=1,...,Nf)について、第2の影響度αfnijと第1の影響度αdijとの間の一致度Psnを式13により取得する。
ここで、Nsnは、第1の影響度αdijと第2の影響度αfnijの両者が所定の定数aを超える画素Xijの数であり、式14で取得する。
ここで、count(A|B)は、実施形態1と同様に、条件Bを満たすAの数を表す。
以上説明したように、本実施形態によれば、医用画像から診断名を推論する場合においても、診断名の推論結果に影響度が高い画像所見を参考情報として提示できるため、医師は推論の結果が診断に有用であるか否かを判断することができる。
<実施形態2の変形例>
影響度は、実施形態2に記載した方法に限らず、例えば「Grad−CAM」と呼ばれる手法のヒートマップを用いて取得してもよい。
「Grad−CAM」におけるヒートマップとは、入力画像が推論結果に与える影響をマップ(画像)化したものである。ヒートマップLGrad−CAM は式15、式16により取得する。
ここで、yはクラスcに対応する最終層の出力値であり、図9における出力層909、919の1つノード(909や919の丸印の1つ)の出力値に対応する。Aは所定の層のk番目のフィルタの出力値であり、図9における畳み込み層904の出力値のk番目(904の四角印のk番目)に対応する。A ijはk番目のフィルタの出力値における座標(i,j)の要素、Zはフィルタのサイズ、ReLU()は活性化関数(ランプ関数)である。
上記影響度を用いることで、入力画像の推論結果に対する影響度を、所定の畳み込み層で抽出した特徴を用いて取得できるため、画像特徴を考慮した影響度の取得が可能となる。
(参考文献:Ramprasaath R.Selvaraju,et al.,Grad−CAM: Visual Explanations from Deep Networks via Gradient−based Localization,arXiv:1610.02391v3,2017)
<変形例>
上述の実施形態では、胸部X線CT画像上の肺結節影に関する診断支援を行う場合を例に説明したが、本発明はこれに限らない。対象とする医用画像は、CT装置、デジタルラジオグラフィ、MRI(Magnetic Resonance Imaging)装置、SPECT(Single Photon Emission CT)装置、PET(Positron Emission Tomography)装置、超音波診断装置、眼底カメラ、光音響装置といった撮影装置の少なくともいずれかを用いて取得された医用画像でもよい。対象とする病変は肺結節影に限らず、被検体のいかなる部位の病変であってよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の各実施形態における情報処理装置は、単体の装置として実現してもよいし、複数の装置を互いに通信可能に組み合わせて上述の処理を実行する形態としてもよく、いずれも本発明の実施形態に含まれる。共通のサーバ装置あるいはサーバ群で、上述の処理を実行することとしてもよい。情報処理装置および情報処理システムを構成する複数の装置は所定の通信レートで通信可能であればよく、また同一の施設内あるいは同一の国に存在することを要しない。
本発明の実施形態には、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムのコードを読みだして実行するという形態を含む。
したがって、実施形態に係る処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明の実施形態の一つである。また、コンピュータが読みだしたプログラムに含まれる指示に基づき、コンピュータで稼働しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
上述の実施形態を適宜組み合わせた形態も、本発明の実施形態に含まれる。
101 情報処理装置
102 医用画像データベース(医用画像DB)
301 画像取得部
302 病変位置取得部
303 特徴量取得部
304 第1の推論部
305−i 第2の推論部
306 第1の影響度取得部
307−i 第2の影響度取得部
308 一致度算出部
309 選択部
310 提示部

Claims (21)

  1. 医用画像の特徴を示す値である画像特徴量に基づいて、前記医用画像から導かれる診断名を推論する第1の推論手段と、
    前記画像特徴量に基づいて、前記医用画像の特徴を表現する画像所見を推論する第2の推論手段と、
    前記第1の推論手段による前記診断名の推論に影響を与えた画像特徴量と共通する画像特徴量が、影響を与えて前記第2の推論手段により推論された画像所見と、前記診断名とをユーザに提示する提示手段と、
    を有することを特徴とする情報処理装置。
  2. 前記第2の推論手段は、前記画像特徴量に基づいて、前記医用画像の特徴を表現する複数の画像所見を夫々推論し、
    前記提示手段は、前記複数の画像所見のうち、前記第1の推論手段による前記診断名の推論に影響を与えた画像特徴量と共通する画像特徴量が、影響を与えて前記第2の推論手段により推論された画像所見を提示することを特徴とする請求項1に記載の情報処理装置。
  3. 前記診断名の推論に影響を与えた画像特徴量は、前記第1の推論手段による推論において所定以上の影響を与えた画像特徴量であることを特徴とする請求項1又は請求項2のいずれか1項に記載の情報処理装置。
  4. 前記第1の推論手段による前記診断名の推論に影響を与えた画像特徴量と共通する画像特徴量が、影響を与えて前記第2の推論手段により推論された画像所見を選択する選択手段をさらに有し、
    前記提示手段は、前記選択手段により選択された画像所見を提示することを特徴とする請求項2又は請求項3のいずれか1項に記載の情報処理装置。
  5. 前記第2の推論手段は、前記画像所見の種別ごとに画像所見を推論する複数の推論手段を含み構成され、
    前記選択手段は、前記複数の推論手段から少なくとも一つの推論手段を選択し、
    前記提示手段は、前記選択された推論手段により推論された画像所見の情報を提示することを特徴とする請求項4に記載の情報処理装置。
  6. 前記画像特徴量が前記第1の推論手段による推論結果に与えた影響の度合いである第1の影響度を取得する第1の取得手段と、
    前記画像特徴量が前記第2の推論手段による推論結果に与えた影響の度合いである第2の影響度を取得する第2の取得手段と、をさらに有し、
    前記提示手段は前記第1の影響度と前記第2の影響度とに基づいて画像所見を提示することを特徴とする請求項1乃至請求項5のいずれか1項に記載の情報処理装置。
  7. 前記第1の影響度と前記第2の影響度とに基づいて、前記第1の推論手段による推論結果に影響を与えた前記画像特徴量と、前記第2の推論手段による推論結果に影響を与えた前記画像特徴量と、が一致する度合いである一致度を取得する第3の取得手段をさらに有し、
    前記提示手段は、前記第1の影響度と前記第2の影響度とに基づいて前記取得される一致度に基づいて、前記画像所見を提示することを特徴とする請求項6に記載の情報処理装置。
  8. 前記取得手段は、前記第2の影響度が所定の値以上である画像特徴量と、前記第1の影響度が前記所定の値以上である画像特徴量とが一致する度合いを前記一致度として取得することを特徴とする請求項7に記載の情報処理装置。
  9. 前記医用画像から前記診断名を推論し、前記第1の推論手段を含み構成される第3の推論手段をさらに有することを特徴とする請求項1乃至請求項8のいずれか1項に記載の情報処理装置。
  10. 前記画像特徴量は、前記第3の推論手段における推論過程に含まれる所定の段階から取得される値であり、
    前記第1の推論手段は、前記第3の推論手段における前記所定の段階以降の推論過程の推論を行うことを特徴とする、請求項9に記載の情報処理装置。
  11. 前記医用画像から前記画像所見を推論し、前記第2の推論手段を含み構成される第4の推論手段をさらに有することを特徴とする請求項1乃至請求項10のいずれか1項に記載の情報処理装置。
  12. 前記第3の推論手段と少なくとも前記所定の段階までの推論過程が共通する、前記医用画像から前記画像所見を推論する第4の推論手段をさらに有し、
    前記第2の推論手段は、前記第4の推論手段における前記所定の段階以降の推論過程の推論を行うことを特徴とする、請求項10に記載の情報処理装置。
  13. 前記第4の推論手段は、前記第3の推論手段に基づいて転移学習を行うことにより得られたものであることを特徴とする請求項12に記載の情報処理装置。
  14. 前記画像特徴量は、前記医用画像の1以上の所定の大きさの領域の画素値であることを特徴とする、請求項1乃至13の何れか1項に記載の情報処理装置。
  15. 前記提示手段は、前記画像所見と前記診断名とを表示部に表示させることによりユーザに提示することを特徴とする請求項1乃至請求項14のいずれか1項に記載の情報処理装置。
  16. 前記提示手段は、前記画像所見を前記診断名に対する参考情報として提示することを特徴とする請求項1乃至請求項15のいずれか1項に記載の情報処理装置。
  17. 医用画像から診断名を推論する第1の推論に影響を与えた画像特徴量と、前記医用画像から画像所見を推論する第2の推論に影響を与えた画像特徴量とのうち、共通する画像特徴量を特定する特定手段と、
    前記特定された画像特徴量の影響により前記第2の推論で推論された画像所見と、前記第1の推論で推論された診断名とをユーザに提示する提示手段と、
    を有することを特徴とする情報処理装置。
  18. 医用画像の特徴を示す値である画像特徴量に基づいて、前記医用画像から導かれる診断名を推論する第1の推論手段と、
    前記画像特徴量に基づいて、前記医用画像の特徴を表現する画像所見を推論する第2の推論手段と、
    前記第1の推論手段による前記診断名の推論に影響を与えた画像特徴量と共通する画像特徴量が、影響を与えて前記第2の推論手段により推論された画像所見と、前記診断名とをユーザに提示する提示手段と、
    を有することを特徴とする情報処理システム。
  19. 医用画像の特徴を示す値である画像特徴量に基づいて、前記医用画像から導かれる診断名を推論する第1の推論工程と、
    前記画像特徴量に基づいて、前記医用画像の特徴を表現する画像所見を推論する第2の推論工程と、
    前記第1の推論工程において前記診断名の推論に影響を与えた画像特徴量と共通する画像特徴量が、前記第2の推論工程において影響を与えて推論された画像所見と、前記診断名とをユーザに提示する工程と、
    を有することを特徴とする情報処理方法。
  20. 医用画像から、前記医用画像の特徴を示す値である画像特徴量を取得する工程と、
    前記取得された画像特徴量を入力として、前記医用画像から導かれる診断名を推論する工程と、
    前記取得された画像特徴量を入力として、前記医用画像の特徴を表現する文言である複数の画像所見を推論する工程と、
    前記診断名の推論に影響を与えた画像特徴量と、前記画像所見の推論に影響を与えた画像特徴量とのうち、共通する画像特徴量を特定する工程と、
    前記特定された画像特徴量の影響により推論された画像所見と、前記推論された診断名とをユーザに提示する工程と、
    を有することを特徴とする情報処理方法。
  21. 請求項18又は請求項19のいずれか1項に記載の情報処理方法をコンピュータに実行させるためのプログラム。
JP2017230994A 2017-11-30 2017-11-30 情報処理装置、情報処理方法およびプログラム Active JP7058988B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017230994A JP7058988B2 (ja) 2017-11-30 2017-11-30 情報処理装置、情報処理方法およびプログラム
US16/767,093 US11527328B2 (en) 2017-11-30 2018-11-16 Information processing apparatus, information processing system, information processing method, and program
PCT/JP2018/042398 WO2019107177A1 (en) 2017-11-30 2018-11-16 Information processing apparatus, information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017230994A JP7058988B2 (ja) 2017-11-30 2017-11-30 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019097805A true JP2019097805A (ja) 2019-06-24
JP7058988B2 JP7058988B2 (ja) 2022-04-25

Family

ID=66664943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017230994A Active JP7058988B2 (ja) 2017-11-30 2017-11-30 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US11527328B2 (ja)
JP (1) JP7058988B2 (ja)
WO (1) WO2019107177A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022018415A (ja) * 2020-07-15 2022-01-27 キヤノンメディカルシステムズ株式会社 医用データ処理装置及び方法
WO2022181154A1 (ja) * 2021-02-26 2022-09-01 京セラ株式会社 判定システム、判定システムの制御方法、および制御プログラム
WO2022239745A1 (ja) * 2021-05-11 2022-11-17 富士フイルム株式会社 情報処理装置、診断支援処理装置、情報処理方法、診断支援処理方法、情報処理プログラム、及び診断支援処理プログラム
US11923072B2 (en) 2020-09-28 2024-03-05 Hitachi, Ltd. Image diagnosis supporting device and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818424B2 (ja) * 2016-04-13 2021-01-20 キヤノン株式会社 診断支援装置、情報処理方法、診断支援システム及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013027635A (ja) * 2011-07-29 2013-02-07 Canon Inc 画像処理装置及び画像処理方法
JP2013039230A (ja) * 2011-08-16 2013-02-28 Canon Inc 医療診断支援装置及び医療診断支援方法
WO2017179503A1 (en) * 2016-04-13 2017-10-19 Canon Kabushiki Kaisha Medical diagnosis support apparatus, information processing method, medical diagnosis support system, and program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8543519B2 (en) * 2000-08-07 2013-09-24 Health Discovery Corporation System and method for remote melanoma screening
JP5340204B2 (ja) 2010-03-01 2013-11-13 キヤノン株式会社 推論装置、その制御方法およびプログラム
JP2012094127A (ja) 2010-10-01 2012-05-17 Fujifilm Corp 診断結果説明レポート作成装置、診断結果説明レポート作成方法ならびに診断結果説明レポート作成プログラム
US10049445B2 (en) 2011-07-29 2018-08-14 Canon Kabushiki Kaisha Image processing apparatus and image processing method of a three-dimensional medical image
US10055551B2 (en) 2013-10-10 2018-08-21 Board Of Regents Of The University Of Texas System Systems and methods for quantitative analysis of histopathology images using multiclassifier ensemble schemes
KR20160012758A (ko) * 2014-07-25 2016-02-03 삼성전자주식회사 영상 진단 보조 장치 및 방법
KR20160020918A (ko) 2014-08-14 2016-02-24 삼성전자주식회사 적응형 컴퓨터 보조 진단 장치 및 방법
JP6532287B2 (ja) 2015-05-14 2019-06-19 キヤノン株式会社 医療診断支援装置、情報処理方法及びプログラム
JP7110098B2 (ja) 2015-12-18 2022-08-01 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化
JP6808557B2 (ja) 2017-03-30 2021-01-06 キヤノン株式会社 情報処理装置、その制御方法及びプログラム
JP7224757B2 (ja) * 2017-10-13 2023-02-20 キヤノン株式会社 診断支援装置、情報処理方法、診断支援システム及びプログラム
US10885400B2 (en) * 2018-07-03 2021-01-05 General Electric Company Classification based on annotation information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013027635A (ja) * 2011-07-29 2013-02-07 Canon Inc 画像処理装置及び画像処理方法
JP2013039230A (ja) * 2011-08-16 2013-02-28 Canon Inc 医療診断支援装置及び医療診断支援方法
WO2017179503A1 (en) * 2016-04-13 2017-10-19 Canon Kabushiki Kaisha Medical diagnosis support apparatus, information processing method, medical diagnosis support system, and program

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BAR YANIV ET AL.: ""Deep learning with non-medical training used for chest pathology identification"", PROC. OF SPIE, vol. 9414, JPN7021003295, 20 March 2015 (2015-03-20), pages 94140V, XP060052074, ISSN: 0004575961, DOI: 10.1117/12.2083124 *
NAPPI J. JANNE ET AL.: ""Deep transfer learning of virtual endoluminal views for the detection of polyps in CT colonography"", PROC. OF SPIE, vol. 9785, JPN7021003294, 24 March 2016 (2016-03-24), pages 97852B, XP060070515, ISSN: 0004575960, DOI: 10.1117/12.2217260 *
SELVARAJU R. RAMPRASAATH ET AL.: ""Grad-CAM:Visual Explanations from Deep Networks via Gradient-based Localization"", [ONLINE], JPN6021032359, 21 May 2017 (2017-05-21), pages 1610 - 02391, ISSN: 0004575958 *
ZEILER D. MATTHEW ET AL.: ""Visualizing and Understanding Convolutional Networks"", [ONLINE], JPN6021032360, 28 November 2013 (2013-11-28), pages 1311 - 2901, ISSN: 0004575959 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022018415A (ja) * 2020-07-15 2022-01-27 キヤノンメディカルシステムズ株式会社 医用データ処理装置及び方法
JP7551370B2 (ja) 2020-07-15 2024-09-17 キヤノンメディカルシステムズ株式会社 医用データ処理装置及び方法
US11923072B2 (en) 2020-09-28 2024-03-05 Hitachi, Ltd. Image diagnosis supporting device and image processing method
WO2022181154A1 (ja) * 2021-02-26 2022-09-01 京セラ株式会社 判定システム、判定システムの制御方法、および制御プログラム
WO2022239745A1 (ja) * 2021-05-11 2022-11-17 富士フイルム株式会社 情報処理装置、診断支援処理装置、情報処理方法、診断支援処理方法、情報処理プログラム、及び診断支援処理プログラム

Also Published As

Publication number Publication date
JP7058988B2 (ja) 2022-04-25
US20200381115A1 (en) 2020-12-03
WO2019107177A1 (en) 2019-06-06
US11527328B2 (en) 2022-12-13

Similar Documents

Publication Publication Date Title
JP7058988B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20230106440A1 (en) Content based image retrieval for lesion analysis
JP7027070B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN109074869B (zh) 医疗诊断支持装置、信息处理方法以及医疗诊断支持系统
US20200085382A1 (en) Automated lesion detection, segmentation, and longitudinal identification
US10734107B2 (en) Image search device, image search method, and image search program
CN111225614B (zh) 诊断辅助装置及信息处理方法
JP6016406B2 (ja) 医療診断支援装置及び医療診断支援方法及び入力支援システム
JP2021106901A (ja) 画像処理装置、医用画像診断装置、及びプログラム
JP7066385B2 (ja) 情報処理方法、情報処理装置、情報処理システム及びプログラム
JP6957214B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6824845B2 (ja) 画像処理システム、装置、方法およびプログラム
JP6820043B2 (ja) 画像の閲覧を支援する方法およびこれを利用した装置
JP2019212296A (ja) 医用情報処理装置、方法及びプログラム
US20210279920A1 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
JP2021077331A (ja) データ処理装置及びデータ処理方法
JP7013145B2 (ja) 情報処理装置、情報処理システム、情報処理装置の作動方法及びプログラム
US20230360213A1 (en) Information processing apparatus, method, and program
JP6220435B2 (ja) 診断支援装置及びその制御方法
JP7321671B2 (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム
EP4339882A1 (en) System for medical data analysis
Doğanay et al. A hybrid lung segmentation algorithm based on histogram-based fuzzy C-means clustering
JP6982570B2 (ja) コンテキスト・アウェア医療レコメンデーションのためのシステム及び方法
JP7502089B2 (ja) 医用情報処理装置、医用情報処理システム、医用情報処理方法、およびプログラム
JP2022095099A (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220413

R151 Written notification of patent or utility model registration

Ref document number: 7058988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151