JP2020073081A - 画像診断支援装置、学習済みモデル、画像診断支援方法および画像診断支援プログラム - Google Patents

画像診断支援装置、学習済みモデル、画像診断支援方法および画像診断支援プログラム Download PDF

Info

Publication number
JP2020073081A
JP2020073081A JP2020018003A JP2020018003A JP2020073081A JP 2020073081 A JP2020073081 A JP 2020073081A JP 2020018003 A JP2020018003 A JP 2020018003A JP 2020018003 A JP2020018003 A JP 2020018003A JP 2020073081 A JP2020073081 A JP 2020073081A
Authority
JP
Japan
Prior art keywords
lesion
image
neural network
convolutional neural
endoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020018003A
Other languages
English (en)
Other versions
JP7335552B2 (ja
JP2020073081A5 (ja
Inventor
俊明 平澤
Toshiaki Hirasawa
俊明 平澤
智裕 多田
Tomohiro Tada
智裕 多田
和玄 青山
Kazuharu Aoyama
和玄 青山
小澤 毅士
Tsuyoshi Ozawa
毅士 小澤
敏之 由雄
Toshiyuki Yoshio
敏之 由雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japanese Foundation for Cancer Research
AI Medical Service Inc
Original Assignee
Japanese Foundation for Cancer Research
AI Medical Service Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japanese Foundation for Cancer Research, AI Medical Service Inc filed Critical Japanese Foundation for Cancer Research
Publication of JP2020073081A publication Critical patent/JP2020073081A/ja
Publication of JP2020073081A5 publication Critical patent/JP2020073081A5/ja
Application granted granted Critical
Publication of JP7335552B2 publication Critical patent/JP7335552B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/063Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for monochromatic or narrow-band illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Abstract

【課題】内視鏡医による内視鏡画像の診断を支援することが可能な画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラムを提供する。【解決手段】画像診断支援装置は、消化器内視鏡撮像装置により撮像された被験者の消化器内視鏡画像内に存在する病変の名称および位置と、それらの確度の情報とを、畳み込みニューラルネットワークによって推定する病変推定部と、当該病変の名称および位置と、それらの確度とを表示する解析結果画像を生成して、消化器内視鏡画像上に表示させる制御を行う表示制御部と、を備え、畳み込みニューラルネットワークは、萎縮、腸上皮化生、粘膜の隆起または陥凹、粘膜色調の状況の特徴抽出によってあらかじめ判定された複数の消化器腫瘍内視鏡画像内に存在する病変の病変名および病変位置に基づいて学習処理が行われる。【選択図】図1

Description

本発明は、画像診断支援装置、学習済みモデル、画像診断支援方法および画像診断支援プログラムに関する。
がんは世界で最も死因の高い疾患であり、世界保健機関(WHO)の統計によれば、2015年には880万人が死亡し、臓器別では胃や大腸などを含めた消化器系がトップを占める。特に胃がんは、世界で5番目に多い悪性腫瘍、かつ、世界で3番目に多いがん関連死の原因であり、毎年、約100万の新規症例が発生し、約70万人が死亡している。胃がん患者の予後は、診断時のがんのステージ(進行度)に依存する。進行した胃がんは予後不良であるが、早期胃がんの5年生存率は90%以上であり、早期の病巣をいち早く発見し、外科的に切除することで多くの胃がんを完治させることができる。したがって、早期胃がんの内視鏡的検出は、胃がん死亡率を減少させるための最も有効な手段であり、内視鏡的粘膜切除術(EMR)または内視鏡的粘膜下層剥離術(ESD)のような臓器保存型の内視鏡療法で治療する技術の普及は、患者に多大の恩恵をもたらすことができる。
消化器の内視鏡検査(特に上部消化管内視鏡検査:EGD)は、胃がんを診断するための標準的手法であるが、EGDによる観察で胃がんを検出する際の偽陰性率は26%とも言われ(非特許文献1を参照)、高頻度である。さらに、ほとんどの胃がんは、萎縮性粘膜から生じ、早期胃がんの一部は微細な形態変化しか示さず、萎縮性変化を伴う背景粘膜と区別することが困難であるため、経験の浅い内視鏡医では、胃がんを見逃す傾向がある。したがって、内視鏡医は、胃がんを適切に検出するための特別な研修と経験が必要であるが、一定の経験を経た内視鏡医の育成には、1万枚の画像診断経験と10年の期間がかかるとも言われている。
消化器の内視鏡検査においては、多くの内視鏡画像が収集されるが、診断精度を管理するために内視鏡医による内視鏡画像のダブルチェックが望ましく、「対策型検診のための胃内視鏡検診マニュアル」(一般社団法人 日本消化器がん検診学会編)ではダブルチェックが義務付けられている。ただし、内視鏡画像のダブルチェックには多くの時間を要するため、医療現場の内視鏡医にとって重い負担となっている。
しかも、これらの内視鏡画像に基づく診断は、いわば経験と観察に基づく主観的判定であり、様々な偽陽性判断及び偽陰性判断を生じる可能性がある。さらに、医療機器は機器自体の性能と操作者の確実な操作の両条件が満たされてこそ、最高度の性能が発揮されるものであるが、内視鏡診断では内視鏡医の疲労により精度が低下することがある。こうした内視鏡医の属人的要件を補完するために、近年、機械学習による画像認識の精度が飛躍的に向上したAI(人工知能:artificial intelligence)を内視鏡医の支援として活用することで、内視鏡画像のダブルチェック作業の精度とスピードが向上するものと期待されている。
近年、ディープラーニング(深層学習)を用いたAIが様々な医療分野で注目されており、放射線腫瘍学、皮膚がん分類、糖尿病性網膜症、胃生検の組織学的分類、超拡大内視鏡による大腸病変の特徴付けを含む医療分野の画像診断をAIが専門医に替わって行うことができるとの様々な報告がある。特に、顕微内視鏡レベルにおいてはAIが専門医と同等の精度を出せることが証明されている(非特許文献2を参照)。また、皮膚科では、ディープラーニング機能を持ったAIが専門医と同等の画像診断能力を発揮することが発表されており(非特許文献3を参照)、各種機械学習法を利用した特許文献(特許文献1、2を参照)も存在する。
特開2017−045341号公報 特開2017−067489号公報
Hosokawa O et al., Hepatogastroenterology.2007;54(74):442-4. http://www.giejournal.org/article/S0016-5107(14)02171-3/fulltext, "Novel computer-aided diagnostic system for colorectal lesions by using endocytoscopy" Yuichi Mori et. al. Presented at Digestive Disease Week 2014, May 3-6, 2014, Chicago, Illinois, USA 「Nature」2017年2月号、巻頭論文、「皮膚の病変を学習する:人工知能が画像から皮膚がんを検出する能力を強化する」(http://www.natureasia.com/ja-jp/nature/highlights/82762)
上記のように、AIの画像認識能力は人間専門医並みであることが示唆されているが、消化器の通常内視鏡検査においては、AIの内視鏡画像の診断能力を使用した診断支援技術は、まだ医療現場には導入されておらず、今後の実用化が期待されている状況である。
本発明の目的は、内視鏡医による内視鏡画像の診断を支援することが可能な画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラムを提供することである。
本発明に係る画像診断支援装置は、
内視鏡画像における病変の位置を入力することなく当該内視鏡画像を入力した場合、当該内視鏡画像内に存在する病変の位置を出力する畳み込みニューラルネットワークの出力結果により、消化器内視鏡撮像装置により撮像された被験者の消化器内視鏡画像内に存在する病変の位置を、畳み込みニューラルネットワークによって推定して出力する病変推定部を備え、
前記畳み込みニューラルネットワークは、複数の消化器腫瘍内視鏡画像内においてあらかじめ判定された病変を教師データとして学習処理が行われる。
本発明に係る学習済みモデルは、前記畳み込みニューラルネットワークに対する前記学習処理によって得られ、
内視鏡画像における病変の位置を入力することなく当該内視鏡画像を入力した場合、当該内視鏡画像内に存在する病変の位置を出力するようコンピューターを機能させる。
本発明に係る画像診断支援方法は、
内視鏡画像における病変の位置を入力することなく当該内視鏡画像を入力した場合、当該内視鏡画像内に存在する病変の位置を出力する畳み込みニューラルネットワークの出力結果により、消化器内視鏡撮像装置により撮像された被験者の消化器内視鏡画像内に存在する病変の位置を、畳み込みニューラルネットワークによって推定して出力する病変推定部を備える装置を用い、
前記畳み込みニューラルネットワークは、複数の消化器腫瘍内視鏡画像内においてあらかじめ判定された病変を教師データとして学習処理が行われる。
本発明に係る画像診断支援プログラムは、
コンピューターに、
内視鏡画像における病変の位置を入力することなく当該内視鏡画像を入力した場合、当該内視鏡画像内に存在する病変の位置を出力する畳み込みニューラルネットワークの出力結果により、消化器内視鏡撮像装置により撮像された被験者の消化器内視鏡画像内に存在する病変の位置を、畳み込みニューラルネットワークによって推定して出力する処理を実行させ、
前記畳み込みニューラルネットワークは、複数の消化器腫瘍内視鏡画像内においてあらかじめ判定された病変を教師データとして学習処理が行われる。
本発明における病変部位(萎縮、腸上皮化生、粘膜の隆起または陥凹、粘膜色調の状況)の特徴抽出による判定に係る基準は、経験豊富な内視鏡医によって精度高く設定することが可能であり、例えば、本発明者の著書(「通常内視鏡観察による早期胃癌の拾い上げと診断」、平澤俊明/河内洋・著、藤崎順子・監修、日本メディカルセンター、2016年)に詳しく記載されている。
本発明によれば、内視鏡医による内視鏡画像の診断を支援する技術を提供することができる。
本実施の形態における画像診断支援装置の全体構成を示すブロック図である。 本実施の形態における画像診断支援装置のハードウェア構成を示す図である。 本実施の形態における畳み込みニューラルネットワークの構成を示す図である。 本実施の形態における内視鏡画像上に解析結果画像を表示させる例を示す図である。 評価試験用データセットに用いられた内視鏡画像に関する患者および病変の特徴を示す図である。 図6A,図6Bは、内視鏡画像および解析結果画像の例を示す図である。 複数の内視鏡画像にがんが存在する場合について説明する図である。 図8A,図8Bは、医師によって診断された病変位置(範囲)と、畳み込みニューラルネットワークによって診断された病変位置(範囲)との違いを説明する図である。 腫瘍の深さおよび腫瘍サイズの違いに応じた感度の変化を示す図である。 畳み込みニューラルネットワークによって見逃された病変の詳細を示す図である。 図11A,図11B,図11C,図11D,図11E,図11Fは、畳み込みニューラルネットワークによって見逃された病変が存在する内視鏡画像を示す図である。 畳み込みニューラルネットワークによって胃がんとして検出された非がん性病変の詳細を示す図である。 図13A,図13B,図13Cは、畳み込みニューラルネットワークによって胃がんとして検出された非がん性病変を含む解析結果画像を示す図である。 図14A,図14B,図14C,図14D,図14E,図14Fは、腺腫、過形成性ポリープまたはSSAPを含む大腸の内視鏡画像を示す図である。 図15A,図15B,図15C,図15D,図15E,15Fは、稀なタイプの大腸ポリープを含む大腸の内視鏡画像を示す図である。 学習用データセットに用いられた内視鏡画像に関する大腸ポリープ等の特徴を示す図である。 評価試験用データセットに用いられた内視鏡画像に関する大腸ポリープ等の特徴を示す図である。 偽陽性画像および偽陰性画像の分類結果を示す図である。 図19A,図19Bは、CNN分類と組織分類との一致度合いを示す図である。 5mm以下の大腸ポリープについてCNN分類と組織分類との一致度合いを示す図である。 図21A,図21B,図21C,図21D,図21E,図21Fは、第2の評価試験における内視鏡画像および解析結果画像の例を示す図である。 図22A,図22B,図22C,図22D,図22E,図22F,図22G,図22Hは、第2の評価試験における内視鏡画像および解析結果画像の例を示す図である。 評価試験用データセットに用いられた内視鏡画像に関する患者および病変の特徴を示す図である。 図24A,図24B,図24C,図24Dは、第3の評価試験における内視鏡画像および解析結果画像の例を示す図である。 畳み込みニューラルネットワークによる食道がん/非食道がんの検出結果、および、生検による食道がん/非食道がんの検出結果を示す図である。 白色光感度、NBI用狭帯域光感度および包括的感度を示す図である。 畳み込みニューラルネットワークによる食道がん/非食道がんの検出結果、および、生検による食道がん/非食道がんの検出結果を示す図である。 白色光感度およびNBI用狭帯域光感度を示す図である。 CNN分類と深達度との一致度合いを示す図である。 偽陽性画像および偽陰性画像の分類結果を示す図である。 図31A,図31B,図31C,図31D,図31E,図31Fは、畳み込みニューラルネットワークによって誤って検出および分類された内視鏡画像および解析結果画像を偽陽性画像として示す図である。 図32A,図32B,図32C,図32D,図32Eは、畳み込みニューラルネットワークによって検出されなかった食道がんを含む内視鏡画像を偽陰性画像として示す図である。
以下、本実施の形態を図面に基づいて詳細に説明する。
[画像診断支援装置の全体構成]
まず、本実施の形態における画像診断支援装置100の構成について説明する。図1は、画像診断支援装置100の全体構成を示すブロック図である。図2は、本実施の形態における画像診断支援装置100のハードウェア構成の一例を示す図である。
画像診断支援装置100は、消化器(例えば、食道、胃、十二指腸や大腸など)の内視鏡検査において、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が有する内視鏡画像の診断能力を使用し、医師(例えば、内視鏡医)による内視鏡画像の診断を支援する。画像診断支援装置100には、内視鏡撮像装置200(本発明の「消化器内視鏡撮像装置」に対応)および表示装置300が接続されている。
内視鏡撮像装置200は、例えば、撮像手段を内蔵した電子内視鏡(ビデオスコープともいう)や、光学式内視鏡に撮像手段を内蔵したカメラヘッドを装着したカメラ装着内視鏡等である。内視鏡撮像装置200は、例えば、被験者の口または鼻から消化器に挿入され、当該消化器内の診断対象部位を撮像する。そして、内視鏡撮像装置200は、消化器内の診断対象部位を撮像した内視鏡画像(本発明の「消化器内視鏡画像」に対応)を表す内視鏡画像データD1(静止画像)を画像診断支援装置100に出力する。なお、内視鏡画像データD1ではなく、内視鏡動画像であっても良い。
表示装置300は、例えば、液晶ディスプレイであり、画像診断支援装置100から出力された解析結果画像を、医師に識別可能に表示する。
画像診断支援装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インターフェイス105、GPU(Graphics Processing Unit)106等を備えたコンピューターである。
画像診断支援装置100の各機能は、例えば、CPU101がROM102、RAM103、外部記憶装置104等に記憶された制御プログラム(例えば、画像診断支援プログラム)や各種データ(例えば、内視鏡画像データ、教師データ、畳み込みニューラルネットワークのモデルデータ(構造データおよび学習済み重みパラメータ等)などを参照することによって実現される。なお、RAM103は、例えば、データの作業領域や一時退避領域として機能する。
なお、各機能の一部または全部は、CPUによる処理に代えて、または、これと共に、DSP(Digital Signal Processor)による処理によって実現されても良い。また、同様に、各機能の一部または全部は、ソフトウェアによる処理に代えて、または、これと共に、専用のハードウェア回路による処理によって実現されても良い。
図1に示すように、画像診断支援装置100は、内視鏡画像取得部10、病変推定部20、表示制御部30を備えている。学習装置40は、画像診断支援装置100において使用される畳み込みニューラルネットワークのモデルデータ(構造データおよび学習済み重みパラメータ等)を生成する機能を有する。
[画像取得部]
画像取得部10は、内視鏡撮像装置200から出力された内視鏡画像データD1を取得する。そして、画像取得部10は、取得した内視鏡画像データD1を病変推定部20に出力する。なお、画像取得部10は、内視鏡画像データD1を取得する際、内視鏡撮像装置200から直接取得しても良いし、外部記憶装置104に格納された内視鏡画像データD1や、インターネット回線等を介して提供された内視鏡画像データD1を取得しても良い。
[病変推定部]
病変推定部20は、畳み込みニューラルネットワークを用いて、内視鏡画像取得部10から出力された内視鏡画像データD1により表される内視鏡画像内に存在する病変の病変名(名称)および病変位置(位置)と、当該病変名および病変位置の確度とを推定する。そして、病変推定部20は、内視鏡画像取得部10から出力された内視鏡画像データD1と、病変名、病変位置および確度の推定結果を表す推定結果データD2とを表示制御部30に出力する。
本実施の形態では、病変推定部20は、病変名および病変位置の確度を示す指標として確率スコアを推定する。確率スコアは、0より大きく、1以下の値で表される。確率スコアが高いほど、病変名および病変位置の確度が高いことを意味する。
なお、確率スコアは、病変名および病変位置の確度を示す指標の一例であって、その他の任意の態様の指標が用いられてよい。例えば、確率スコアは、0%〜100%の値で表される態様であっても良いし、数段階のレベル値のうちの何れで表される態様であっても良い。
畳み込みニューラルネットワークは、順伝播型ニューラルネットワークの一種であって、脳の視覚野の構造における知見に基づくものである。基本的に、画像の局所的な特徴抽出を担う畳み込み層と、局所毎に特徴をまとめあげるプーリング層(サブサンプリング層)とを繰り返した構造となっている。畳み込みニューラルネットワークの各層によれば、複数のニューロン(Neuron)を所持し、個々のニューロンが視覚野と対応するような形で配置されている。それぞれのニューロンの基本的な働きは、信号の入力と出力とからなる。ただし、各層のニューロン間は、相互に信号を伝達する際に、入力された信号をそのまま出力するのではなく、それぞれの入力に対して結合荷重を設定し、その重み付きの入力の総和が各ニューロンに設定されている閾値を超えた時に、次の層のニューロンに信号を出力する。学習データからこれらニューロン間の結合荷重を算出しておく。これによって、リアルタイムのデータを入力することによって、出力値の推定が可能となる。この目的にかなう畳み込みニューラルネットワークであれば、それを構成するアルゴリズムは特に限定されない。
図3は、本実施の形態における畳み込みニューラルネットワークの構成を示す図である。なお、畳み込みニューラルネットワークのモデルデータ(構造データおよび学習済み重みパラメータ等)は、画像診断支援プログラムと共に、外部記憶装置104に格納されている。
図3に示すように、畳み込みニューラルネットワークは、例えば、特徴抽出部Naと識別部Nbとを有する。特徴抽出部Naは、入力される画像(内視鏡画像データD1)から画像特徴を抽出する処理を施す。識別部Nbは、特徴抽出部Naにより抽出された画像特徴から画像に係る推定結果を出力する。
特徴抽出部Naは、複数の特徴量抽出層Na1、Na2・・・が階層的に接続されて構成される。各特徴量抽出層Na1、Na2・・・は、畳み込み層(Convolution layer)、活性化層(Activation layer)およびプーリング層(Pooling layer)を備える。
第1層目の特徴量抽出層Na1は、入力される画像を、ラスタスキャンにより所定サイズ毎に走査する。そして、特徴量抽出層Na1は、走査したデータに対して、畳み込み層、活性化層およびプーリング層によって特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。第1層目の特徴量抽出層Na1は、例えば、水平方向に延びる線状の特徴量や斜め方向に延びる線状の特徴量等の比較的シンプルな単独の特徴量を抽出する。
第2層目の特徴量抽出層Na2は、前階層の特徴量抽出層Na1から入力される画像(特徴マップとも称される)を、例えば、ラスタスキャンにより所定サイズ毎に走査する。そして、特徴量抽出層Na2は、走査したデータに対して、同様に、畳み込み層、活性化層およびプーリング層による特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。なお、第2層目の特徴量抽出層Na2は、第1層目の特徴量抽出層Na1が抽出した複数の特徴量の位置関係などを参照しながら統合させることで、より高次元の複合的な特徴量を抽出する。
第2層目以降の特徴量抽出層(図3では、説明の便宜として、特徴量抽出層Naを2階層のみを示す)は、第2層目の特徴量抽出層Na2と同様の処理を実行する。そして、最終層の特徴量抽出層の出力(複数の特徴マップのマップ内の各値)が、識別部Nbに対して入力される。
識別部Nbは、例えば、複数の全結合層(Fully Connected)が階層的に接続された多層パーセプトロンによって構成される。
識別部Nbの入力側の全結合層は、特徴抽出部Naから取得した複数の特徴マップのマップ内の各値に全結合し、その各値に対して重み係数を変化させながら積和演算を行って出力する。
識別部Nbの次階層の全結合層は、前階層の全結合層の各素子が出力する値に全結合し、その各値に対して重み係数を異ならせながら積和演算を行う。そして、識別部Nbの最後段には、内視鏡画像内に存在する病変の病変名および病変位置と、当該病変名および病変位置の確率スコア(確度)とを出力する層(例えば、ソフトマックス関数等)が設けられる。
畳み込みニューラルネットワークは、あらかじめ経験豊富な内視鏡医によってマーキング処理されたレファレンスデータ(以下、「教師データ」という。)を用いて学習処理を行っておくことよって、入力される内視鏡画像から所望の推定結果(ここでは、病変名、病変位置および確率スコア)を出力し得るように、推定機能を保有することができる。
本実施の形態における畳み込みニューラルネットワークは、内視鏡画像データD1を入力とし(図3のinput)、当該内視鏡画像データD1により表される内視鏡画像の画像特徴に応じた病変名、病変位置および確率スコアを推定結果データD2として出力する(図3のoutput)ように構成される。
なお、畳み込みニューラルネットワークは、より好適には、内視鏡画像データD1に加えて、年齢、性別、地域、または既病歴に係る情報を入力し得る構成(例えば、識別部Nbの入力素子として設ける)としても良い。実臨床におけるリアルワールドデータの重要性は特に認められていることから、こうした患者属性の情報を追加することによって、実臨床において、より有用なシステムに展開することができる。すなわち、内視鏡画像の特徴は、年齢、性別、地域または既病歴に係る情報と相関関係を有しており、畳み込みニューラルネットワークに、内視鏡画像データD1に加えて、年齢等の患者属性情報を参照させることによって、より高精度に病変名、病変位置を推定し得る構成とすることができる。この手法は、地域や人種間によっても疾患の病態が異なることがあることから、特に本発明を国際的に活用する場合には、取り入れるべき事項である。
また、病変推定部20は、畳み込みニューラルネットワークによる処理の他、前処理として、内視鏡画像のサイズやアスペクト比に変換する処理、内視鏡画像の色分割処理、内視鏡画像の色変換処理、色抽出処理、輝度勾配抽出処理等を行っても良い。
[表示制御部]
表示制御部30は、病変推定部20から出力された内視鏡画像データD1により表される内視鏡画像上において、病変推定部20から出力された推定結果データD2により表される病変名、病変位置および確率スコアを表示する解析結果画像を生成する。そして、表示制御部30は、内視鏡画像データD1と、生成した解析結果画像を表す解析結果画像データD3とを表示装置300に出力する。この場合、内視鏡画像の病変部の構造強調や色彩強調、高コントラスト化、高精細化などのデジタル画像処理システムを接続し、観察者の理解と判定を助ける加工を施して表示させることもできる。
表示装置300は、表示制御部30から出力された内視鏡画像データD1により表される内視鏡画像上に、解析結果画像データD3により表される解析結果画像を表示させる。表示された内視鏡画像および解析結果画像は、例えば、内視鏡画像のダブルチェック作業に用いられる。また、本実施の形態では、1枚の内視鏡画像および解析結果画像を表示するまでの時間がとても早いため、内視鏡画像のダブルチェック作業以外にも、内視鏡動画として医師によるリアルタイムでの診断補助に用いることができる。
図4は、本実施の形態における内視鏡画像上に解析結果画像を表示させる例を示す図である。図4に示すように、解析結果画像には、病変推定部20により推定された病変位置(範囲)を示す矩形枠50、病変名(早期がん:early stomach cancer)および確率スコア(0.8)が表示されている。本実施の形態では、解析結果画像を参照する医師の注意喚起を促す観点から、確率スコアがある閾値(例えば、0.4)以上の場合、病変推定部20により推定された病変位置(範囲)を示す矩形枠は、黄色で表示される。すなわち、表示制御部30は、病変推定部20から出力された推定結果データD2により表される確率スコアに応じて、解析結果画像における病変位置を特定する病変位置特定情報(本実施の形態では、矩形枠)の表示態様を変更する。なお、矩形枠52は、参考までに、医師によって胃がんと診断された病変位置(範囲)を示しており、実際の解析結果画像には表示されないが、熟練した内視鏡医の判定と同一結果となることを示している。
[学習装置]
学習装置40は、病変推定部20の畳み込みニューラルネットワークが内視鏡画像データD1から病変位置、病変名および確率スコアを推定し得るように、図示しない外部記憶装置に記憶されている教師データD4を入力し、学習装置40の畳み込みニューラルネットワークに対して学習処理を行う。
本実施の形態では、学習装置40は、被験者の消化器について内視鏡撮像装置200により撮像された内視鏡画像(本発明の「消化器腫瘍内視鏡画像」に対応)と、医師により萎縮、腸上皮化生、粘膜の隆起または陥凹、粘膜色調の状況の特徴抽出によってあらかじめ判定された、当該内視鏡画像内に存在する病変の病変名および病変位置と、を教師データD4として用いて学習処理を行う。具体的には、学習装置40は、畳み込みニューラルネットワークに内視鏡画像を入力した際の正解値(病変名および病変位置)に対する出力データの誤差(損失とも称される)が小さくなるように、畳み込みニューラルネットワークの学習処理を行う。
本実施の形態では、教師データD4としての内視鏡画像には、被験者の消化器内に対して白色光を照射して撮像された内視鏡画像、被験者の消化器内に対して色素(例えば、インジゴカルミン、ヨード液)を散布して撮像された内視鏡画像、および、被験者の消化器内に対して狭帯域光(例えば、NBI(Narrow Band Imaging)用狭帯域光、BLI(Blue Laser Imaging)用狭帯域光)を照射して撮像された内視鏡画像が含まれる。学習処理における教師データD4としての内視鏡画像は、日本トップクラスのがん治療専門病院のデータベースを主に使用し、豊富な診断・治療経験を有する日本消化器内視鏡学会指導医がすべての画像を詳細に検討、選別し、精密な手動処理で病変の病変位置に対するマーキングを行った。レファレンスデータとなる教師データD4(内視鏡画像データ)の精度管理は、そのまま画像診断支援装置100の解析精度に直結するために、豊富な経験を有するエキスパート内視鏡医による画像選別と病変同定、特徴抽出のマーキングは極めて重要な工程である。
内視鏡画像の教師データD4は、画素値のデータであっても良いし、所定の色変換処理等がなされたデータであっても良い。また、前処理として、テクスチャ特徴、形状特徴、広がり特徴等を抽出したものが用いられても良い。なお、教師データD4は、内視鏡画像データに加えて、年齢、性別、地域または既病歴に係る情報を関連付けて学習処理を行ってもよい。
なお、学習装置40が学習処理を行う際のアルゴリズムは、公知の手法であってよい。学習装置40は、例えば、公知のバックプロパゲーション(Backpropagation:誤差逆伝播法)を用いて、畳み込みニューラルネットワークに対して学習処理を施し、ネットワークパラメータ(重み係数、バイアス等)を調整する。そして、学習装置40によって学習処理が施された畳み込みニューラルネットワークのモデルデータ(構造データおよび学習済み重みパラメータ等)は、例えば、画像診断支援プログラムと共に、外部記憶装置104に格納される。
以上詳しく説明したように、本実施の形態では、画像診断支援装置100は、消化器内視鏡撮像装置により撮像された被験者の消化器内視鏡画像内に存在する病変の名称および位置と、それらの確度の情報とを、畳み込みニューラルネットワークによって推定する病変推定部と、当該病変の名称および位置と、それらの確度とを表示する解析結果画像を生成して、消化器内視鏡画像上に表示させる制御を行う表示制御部と、を備える。畳み込みニューラルネットワークは、萎縮、腸上皮化生、粘膜の隆起または陥凹、粘膜色調の状況の特徴抽出によってあらかじめ判定された複数の消化器腫瘍内視鏡画像内に存在する病変の病変名および病変位置に基づいて学習処理が行われる。
このように構成した本実施の形態によれば、畳み込みニューラルネットワークが複数の被験者のそれぞれについて予め得られている複数の消化器の内視鏡画像と、複数の被験者のそれぞれについて予め得られている病変の病変名および病変位置の確定診断結果とに基づいて学習されているため、短時間、かつ、実質的に経験豊富な内視鏡医に匹敵する精度で、新規被験者の消化器の病変名および病変位置を推定することができる。したがって、消化器の内視鏡検査において、本発明による畳み込みニューラルネットワークが有する内視鏡画像の診断能力を使用し、内視鏡医による内視鏡画像の診断を強力に支援することができる。実臨床においては、内視鏡医は、診察室で直接的に診断支援ツールとして利用することもできる一方、複数の診察室から伝送される内視鏡画像を中央診断支援サービスとすることや、インターネット回線を通じた遠隔操作によって、遠隔地の機関に対する診断支援サービスとして利用することもできる。
なお、上記実施の形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
[実験例]
最後に、上記実施の形態の構成における効果を確認するための評価試験について説明する。
[学習用データセットの準備]
2004年4月〜2016年12月にかけて行われたEGDの内視鏡画像を、画像診断支援装置における畳み込みニューラルネットワークの学習に使用する学習用データセット(教師データ)として用意した。EGDは、日常診療におけるスクリーニングまたは術前検査のために実施され、内視鏡画像は、標準的な内視鏡(GIF−H290Z、GIF−H290、GIF−XP290N、GIF−H260Z、GIF−Q260J、GIF−XP260、GIF−XP260NS、GIF−N260等、オリンパスメディカルシステムズ社、東京)および標準的な内視鏡ビデオシステム(EVIS LUCERA CV−260/CLV−260、EVIS LUCERA ELITE CV−290/CLV−290SL、オリンパスメディカルシステムズ社)を用いて収集した。
学習用データセットとしての内視鏡画像には、被験者の消化器内に対して白色光を照射して撮像された内視鏡画像、被験者の消化器内に対して色相(例えば、インジゴカルミン、ヨード液)を散布して撮像された内視鏡画像、および、被験者の消化器内に対して狭帯域光(例えば、NBI用狭帯域光、BLI用狭帯域光)を照射して撮像された内視鏡画像を含めた。また、送気不足による胃の伸展不良、生検後の出血、ハレーション、レンズのくもり、焦点外れまたは粘液等のために、画像品質が悪い内視鏡画像は、学習用データセットから除外した。
最終的に、学習用データセットとして、組織学的に証明された2,639の胃がんについて、13,584の内視鏡画像を収集した。胃がんの専門家であり、日本消化器内視鏡学会指導医(がん専門病院で10年以上の経験を有し、胃がんの6,000症例以上の胃がんを診断した実績を有する)は、収集された内視鏡画像において、全ての胃がん(早期がんまたは進行がん)の病変名および病変位置を精密に手動で特徴抽出のマーキング設定し、学習用データセットを用意した。
[学習・アルゴリズム]
画像診断支援装置を構築するため、VGG(https://arxiv.org/abs/1409.1556)をベースとした16層以上で構成される畳み込みニューラルネットワークを使用した。バークレービジョン及びラーニングセンター(Berkeley Vision and Learning Center (BVLC))で開発されたCaffeディープラーニングフレームワークを学習および評価試験に使用した。畳み込みニューラルネットワークの全ての層は、確率的勾配降下法を使用して、グローバル学習率0.0001で微調整されている。CNNと互換性を持たせるために、各画像を300×300ピクセルにリサイズした。
[評価試験用データセットの準備]
構築された畳み込みニューラルネットワークベースの画像診断支援装置の診断精度を評価するために、2017年3月1日〜2017年3月31日まで、公益財団法人がん研究会有明病院で通常の臨床検査としてEGDを受けた69人の患者(胃がん77病変)を対象にして、2,296の内視鏡画像(胃)を評価試験用データセットとして収集した。その結果、62人に胃がんが1病変存在し、6人に胃がんが2病変存在し、1人に胃がんが3病変存在していた。全てのEGDは、標準的な内視鏡(GIF−H290Z、オリンパスメディカルシステムズ社、東京)および標準的な内視鏡ビデオシステム(EVIS LUCERA ELITE CV−290/CLV−290SL、オリンパスメディカルシステムズ社)を用いて実施した。EGDでは、胃内をくまなく観察し、内視鏡画像を撮影し、撮影枚数は1人の患者あたり18〜69枚となった。
図5は、評価試験用データセットに用いられた内視鏡画像に関する患者および病変の特徴を示す図である。図5に示すように、腫瘍サイズ(直径)の中央値は24mmであり、腫瘍サイズ(直径)の範囲は3〜170mmであった。肉眼的分類では、55病変(71.4%)で表在型(0−IIa、0−IIb、0−IIc、0−IIa+IIc、0−IIc+IIb、0−IIc+III)が最も多かった。腫瘍の深さでは、早期胃がん(T1)が42病変(67.5%)であり、進行胃がん(T2−T4)が25病変(32.5%)であった。
[評価試験の方法]
本評価試験では、学習用データセットを用いて学習処理が行われた畳み込みニューラルネットワークベースの画像診断支援装置に対して評価試験用データセットを入力し、当該評価試験用データセットを構成する各内視鏡画像から胃がんを正しく検出できるか否かについて評価した。胃がんを正しく検出できた場合を「正解」とみなした。畳み込みニューラルネットワークは、内視鏡画像から胃がん(病変)を検出すると、その病変名(早期胃がんまたは進行胃がん)、病変位置および確率スコアを出力する。
なお、評価試験用データセットを構成する内視鏡画像に存在する胃がんのうち、いくつかの胃がんは複数の内視鏡画像に存在していたため、以下の定義を使用して評価試験を行った。
(定義1)
畳み込みニューラルネットワークが複数の内視鏡画像で同一(1つ)の胃がんを検出した場合は、正解とみなした。図6は、複数の内視鏡画像に同一のがんが存在する場合について説明する図である。図6A,6Bにおいて、矩形枠54,56は、医師により手動で設定された胃がんの病変位置(範囲)を示す。矩形枠58は、畳み込みニューラルネットワークにより推定された胃がんの病変位置(範囲)を示す。図6Aは、胃がんを遠景で撮像した内視鏡画像を示し、図6Bは、当該胃がんを近視野で撮像した内視鏡画像を示す。図6A,6Bに示すように、畳み込みニューラルネットワークは、遠景では胃がんを検出することはできなかったが、近景では胃がんを検出することができた。このような場合、本評価試験では、正解とみなした。
(定義2)
偽陽性の病変(胃がん)が異なる内視鏡画像で検出されても、それらが同じ病変であった場合、それらは1つの病変とみなした。
(定義3)
胃がんの病変位置(範囲)の境界線が不明確な場合があるため、畳み込みニューラルネットワークが胃がんの一部を検出した場合は正解とみなした。図7は、医師によって診断された病変位置(範囲)と、畳み込みニューラルネットワークによって診断された病変位置(範囲)との違いを説明する図である。図7において、矩形枠60は、医師により手動で設定された胃がんの病変位置(範囲)を示す。矩形枠62は、畳み込みニューラルネットワークにより推定された胃がんの病変位置(範囲)を示す。図7に示すように、医師により手動で設定された胃がんの病変位置(範囲)と、畳み込みニューラルネットワークにより推定された胃がんの病変位置(範囲)との間には差異があった。このように畳み込みニューラルネットワークが胃がんの少なくとも一部を検出した場合、本評価試験では正解とみなした。
また、本評価試験では、胃がんを検出する畳み込みニューラルネットワークの診断能力に対する感度および陽性的中率(PPV)を次の式(1),(2)を用いて算出した。
感度=(畳み込みニューラルネットワークが検出した胃がんの数)/(評価試験用データセットを構成する内視鏡画像に存在する胃がんの数(77))・・・(1)
陽性的中率=(畳み込みニューラルネットワークが検出した胃がんの数)/(畳み込みニューラルネットワークが胃がんと診断した病変の数)・・・(2)
[評価試験の結果]
畳み込みニューラルネットワークは、評価試験用データセットを構成する2,296の内視鏡画像を分析する処理を47秒という短い時間で終了させた。また、畳み込みニューラルネットワークは、77の胃がん(病変)のうち71の胃がんを検出した。すなわち、畳み込みニューラルネットワークの診断能力に対する感度は92.2%であった。
図8は、内視鏡画像および解析結果画像の例を示す図である。図8Aは、胃体中部小弯にわずかに赤くて平坦な病変が存在する内視鏡画像である。胃がんは背景粘膜の萎縮と類似しているため、図8Aの内視鏡画像から胃がんを検出することは内視鏡医でも困難と思われた。図8Bは、畳み込みニューラルネットワークが胃がん(0−IIc、5mm、tub1、T1a)を検出したことを示す解析結果画像である。図8Bにおいて、矩形枠64は、医師により手動で設定された胃がんの病変位置(範囲)を示す。矩形枠66は、畳み込みニューラルネットワークにより推定された胃がんの病変位置(範囲)を示す。
図9は、本評価試験において、腫瘍の深さおよび腫瘍サイズの違いに応じた感度の変化を示す図である。図9に示すように、畳み込みニューラルネットワークは、腫瘍サイズ(直径)が6mm以上である71の胃がんのうち71の胃がん(98.6%)を検出した。また、畳み込みニューラルネットワークは、全ての浸潤がん(T1b、T2、T3、T4a)を検出した。
一方、畳み込みニューラルネットワークは、6つの胃がんを見逃した。6つの胃がんのうち5つは、微小ながん(腫瘍サイズ≦5mm)であった。見逃された全ての胃がんは、内視鏡医でさえも胃炎と区別することが困難な分化型粘膜内がんであった。なお、胃粘膜内がんのダブリングタイム(腫瘍の体積が2倍になる時間)は2〜3年と考えられているため、例え、このような小さながんを見逃しても毎年のEGDで粘膜内がんとして検出されると考えられ、本発明の畳み込みニューラルネットワークの有用性と臨床応用を妨げるものではない。
図10は、畳み込みニューラルネットワークによって見逃された病変(胃がん)の詳細を示す図である。図11は、畳み込みニューラルネットワークによって見逃された病変が存在する内視鏡画像(解析結果画像)を示す図である。
図11Aにおいて、矩形枠70は、畳み込みニューラルネットワークによって見逃された胃がん(前庭部大弯、0−IIc、3mm、tub1、T1a)の病変位置(範囲)を示す。図11Bにおいて、矩形枠72は、畳み込みニューラルネットワークによって見逃された胃がん(胃体中部の小弯、0−IIc、4mm、tub1、T1a)の病変位置(範囲)を示す。
図11Cにおいて、矩形枠74は、畳み込みニューラルネットワークによって見逃された胃がん(前庭部後壁、0−IIc、4mm、tub1、T1a)の病変位置(範囲)を示す。図11Dにおいて、矩形枠76は、畳み込みニューラルネットワークによって見逃された胃がん(前庭部後壁、0−IIc、5mm、tub1、T1a)の病変位置(範囲)を示す。
図11Eにおいて、矩形枠78は、畳み込みニューラルネットワークによって見逃された胃がん(前庭部大弯、0−IIc、5mm、tub1、T1a)の病変位置(範囲)を示す。矩形枠80は、畳み込みニューラルネットワークによって胃がんと推定された非がん性病変(幽門輪)である。図11Fにおいて、矩形枠82は、畳み込みニューラルネットワークによって見逃された胃がん(胃体下部の前壁、0−IIc、16mm、tub1、T1a)の病変位置(範囲)を示す。
また、畳み込みニューラルネットワークは、161の非がん性病変を胃がんとして検出した。陽性的中率は30.6%であった。図12は、畳み込みニューラルネットワークによって胃がんとして検出された非がん性病変の詳細を示す図である。図12に示すように、胃がんとして検出された非がん性病変のほぼ半分は、色調の変化または不規則な粘膜表面の変化を伴う胃炎であった。このような胃炎は、内視鏡医が胃がんと区別することが困難なことも多く、胃生検による胃がん診断の陽性反応的中度(PPV:Positive Predictive Value)は3.2〜5.6%という報告がある。がんの臨床診断に関しては、がん検出の見逃しは患者の治療機会喪失につながることから、偽陽性よりも偽陰性が問題となる。内視鏡医による生検のPPVが低いことを考慮すると、畳み込みニューラルネットワークのPPVは臨床的に十分許容可能であると考えられる。
図13は、畳み込みニューラルネットワークによって胃がんとして検出された非がん性病変を含む解析結果画像を示す図である。図13Aにおいて、矩形枠84は、畳み込みニューラルネットワークにより胃がんとして検出された胃炎(不整な粘膜表面構造を伴う腸上皮化生)の病変位置(範囲)を示す。図13Bにおいて、矩形枠86は、畳み込みニューラルネットワークにより胃がんとして検出された胃炎(局所的な萎縮による白色粘膜)の病変位置(範囲)を示す。図13Cにおいて、矩形枠88は、畳み込みニューラルネットワークにより胃がんとして検出された胃炎(慢性胃炎による粘膜の発赤)の病変位置(範囲)を示す。
次に、上記実施の形態の構成における効果を確認するための第2の評価試験について説明する。
[学習用データセットの準備]
2013年12月〜2017年3月にかけて行われた大腸の内視鏡検査12,895例の内視鏡画像を、画像診断支援装置における畳み込みニューラルネットワークの学習に使用する学習用データセット(教師データ)として用意した。内視鏡画像には、認定病理学者によって組織学的に証明された腺がん、腺腫、過形成性ポリープ、SSAP(sessile serrated adenoma/polyps)、若年性ポリープ、Peutz−Jeghersポリープ、炎症性ポリープ、リンパ球様凝集塊などが含まれる。EGDは、日常診療におけるスクリーニングまたは術前検査のために実施され、内視鏡画像は、標準的な内視鏡ビデオシステム(EVIS LUCERA:CF TYPE H260AL/I、PCF TYPE Q260AI,Q260AZI、H290I,H290Z、オリンパスメディカルシステムズ社)を用いて収集した。
図14Aは、突出型の腺腫を含む大腸の内視鏡画像を示す。図14Bは、平坦型の腫瘍(点線90を参照)を含む大腸の内視鏡画像を示す。図14Cは、突出型の過形成性ポリープを含む大腸の内視鏡画像を示す。図14Dは、平坦型の過形成性ポリープ(点線92を参照)を含む大腸の内視鏡画像を示す。図14Eは、突出型のSSAPを含む大腸の内視鏡画像を示す。図14Fは、平坦型のSSAP(点線94を参照)を含む大腸の内視鏡画像を示す。
学習用データセットとしての内視鏡画像には、被験者の大腸内に対して白色光を照射して撮像された内視鏡画像、および、被験者の大腸内に対して狭帯域光(例えば、NBI用狭帯域光)を照射して撮像された内視鏡画像を含めた。また、糞便の残留物、ハレーション、生検後の出血のために、画像品質が悪い内視鏡画像は、学習用データセットから除外した。
図15Aは、被験者の大腸内のPeutz−Jeghersポリープに対して白色光を照射して撮像された内視鏡画像を示す。図15Bは、被験者の大腸内のPeutz−Jeghersポリープに対して狭帯域光(NBI用狭帯域光)を照射して撮像された内視鏡画像を示す。図15Cは、被験者の大腸内の炎症性ポリープに対して白色光を照射して撮像された内視鏡画像を示す。図15Dは、被験者の大腸内の炎症性ポリープに対して狭帯域光(NBI用狭帯域光)を照射して撮像された内視鏡画像を示す。図15Eは、被験者の大腸内においてポリープ状領域のように見える非腫瘍性粘膜を撮像した内視鏡画像を示す。図15Fは、被験者の大腸内においてポリープ状領域のように見えるリンパ球集合体を撮像した内視鏡画像を示す。
最終的に、学習用データセットとして、組織学的に証明された4,752の大腸ポリープに関する20,431の内視鏡画像を収集するとともに、正常な大腸粘膜に関する4,013の内視鏡画像を収集した。収集された内視鏡画像において、全ての大腸ポリープの病変名(種類)および病変位置を精密に手動で特徴抽出のマーキング設定を行った。図16は、学習用データセットに用いられた内視鏡画像に関する大腸ポリープ等の特徴を示す図である。なお、図16において、1つの内視鏡画像において複数の大腸ポリープが含まれる場合、当該複数の大腸ポリープのそれぞれを、異なる内視鏡画像として数えた。
[学習・アルゴリズム]
画像診断支援装置を構築するため、Single Shot MultiBox Detector(SSD、https://arxiv.org/abs/1512.02325)をベースとした16層以上で構成される畳み込みニューラルネットワークを使用した。バークレービジョン及びラーニングセンター(Berkeley Vision and Learning Center (BVLC))で開発されたCaffeディープラーニングフレームワークを学習および評価試験に使用した。畳み込みニューラルネットワークの全ての層は、確率的勾配降下法を使用して、グローバル学習率0.0001で微調整されている。CNNと互換性を持たせるために、各画像を300×300ピクセルにリサイズした。各画像のリサイズに応じて、病変の病変位置に対するマーキングのサイズ変更を行った。
[評価試験用データセットの準備]
構築された畳み込みニューラルネットワークベースの画像診断支援装置の診断精度を評価するために、2017年1月1日〜2017年3月31日まで、通常の臨床検査としてEGDを受けた174人の患者を対象にして、大腸ポリープを有する885の内視鏡画像を含む6,759の内視鏡画像(大腸)を評価試験用データセットとして収集した。通常の臨床検査における画像診断支援装置の診断精度を評価するため、便または送気不足を伴う内視鏡画像も評価試験用データセットとして収集した。しかし、炎症性腸疾患を伴う内視鏡画像は、診断結果が変わる可能性があるため、評価試験用データセットから除外した。また、生検後の出血を伴う内視鏡画像、および、内視鏡治療後の内視鏡画像についても評価試験用データセットから除外した。評価試験用データセットとしての内視鏡画像には、学習用データセットと同様に、被験者の大腸内に対して白色光を照射して撮像された内視鏡画像、および、被験者の大腸内に対して狭帯域光(例えば、NBI用狭帯域光)を照射して撮像された内視鏡画像を含めた。図17は、評価試験用データセットに用いられた内視鏡画像に関する大腸ポリープ等の特徴を示す図である。なお、図17において、1つの内視鏡画像において複数の大腸ポリープが含まれる場合、当該複数の大腸ポリープのそれぞれを、異なる内視鏡画像として数えた。
[評価試験の方法]
本評価試験では、学習用データセットを用いて学習処理が行われた畳み込みニューラルネットワークベースの画像診断支援装置に対して評価試験用データセットを入力し、当該評価試験用データセットを構成する各内視鏡画像から大腸ポリープを正しく検出できるか否かについて評価した。大腸ポリープを正しく検出できた場合を「正解」とみなした。畳み込みニューラルネットワークは、内視鏡画像から大腸ポリープを検出すると、その病変名(種類)、病変位置および確率スコアを出力する。
なお、評価試験の結果を取得する際、以下の定義を使用して評価試験を行った。
(定義1)
医師によって診断された大腸ポリープの病変位置(範囲)の80%以上の領域で、畳み込みニューラルネットワークによって診断された大腸ポリープの病変位置(範囲)が重なった場合、本評価試験では、畳み込みニューラルネットワークが内視鏡画像から大腸ポリープを正しく検出したと判断し、正解とみなした。
(定義2)
畳み込みニューラルネットワークが内視鏡画像から種類の異なる2つ以上の大腸ポリープを同じ病変位置(範囲)として検出した場合、本評価試験では、畳み込みニューラルネットワークは、確率スコアの最も高い種類の大腸ポリープを検出したと判断した。
また、本評価試験では、大腸ポリープを検出する畳み込みニューラルネットワークの診断能力に対する感度および陽性的中率(PPV)を次の式(1),(2)を用いて算出した。
感度=(畳み込みニューラルネットワークが検出した大腸ポリープの数)/(評価試験用データセットを構成する内視鏡画像に存在する大腸ポリープの数)・・・(1)
陽性的中率=(畳み込みニューラルネットワークが検出した大腸ポリープの数)/(畳み込みニューラルネットワークが大腸ポリープと診断した病変の数)・・・(2)
[評価試験の結果]
畳み込みニューラルネットワークは、評価試験用データセットを構成する内視鏡画像を分析する処理を48.7枚/秒(すなわち1枚の内視鏡画像当たりの分析処理時間:20ms)という速い速度で終了させた。また、畳み込みニューラルネットワークは、評価試験用データセットを構成する内視鏡画像において1,247の大腸ポリープの病変位置を推定し、1,172の真正な(組織学的に証明された)大腸ポリープのうち、1,073の大腸ポリープを正しく検出した。畳み込みニューラルネットワークの診断能力に対する感度および陽性的中率は、それぞれ92%および86%であった。
具体的には、被験者の大腸内に対して白色光を照射して撮像された内視鏡画像において、畳み込みニューラルネットワークの診断能力に対する感度および陽性的中率は、それぞれ90%および82%であった。また、被験者の大腸内に対して狭帯域光(NBI用狭帯域光)を照射して撮像された内視鏡画像において、畳み込みニューラルネットワークの診断能力に対する感度および陽性的中率は、それぞれ97%および98%であった。
また、畳み込みニューラルネットワークは、評価試験用データセットを構成する内視鏡画像(10mm未満のみの真正な大腸ポリープを含む)において1,143の大腸ポリープの病変位置を推定し、1,143の真正な大腸ポリープのうち、969の大腸ポリープを正しく検出した。畳み込みニューラルネットワークの診断能力に対する感度および陽性的中率は、それぞれ92%および85%であった。
畳み込みニューラルネットワークの診断能力を向上させるためには、畳み込みニューラルネットワークによって真正な大腸ポリープが正しく検出されなかった、すなわち見逃された理由を検証することが重要である。そこで、本発明者らは、畳み込みニューラルネットワークによって誤って大腸ポリープが検出された内視鏡画像(偽陽性画像)、および、畳み込みニューラルネットワークによって真正な大腸ポリープが検出されなかった内視鏡画像(偽陰性画像)の全てをレビューし、いくつかのカテゴリに分類した。
図18は、偽陽性画像および偽陰性画像の分類結果を示す図である。図18に示すように、165の偽陽性画像のうち64の偽陽性画像(39%)は大腸ポリープと区別しやすい正常構造であり、その大部分は回盲弁(N=56)であった。また、55の偽陽性画像(33%)は大腸ひだであり、その大部分は送気不足を伴う画像であった。他の偽陽性画像(20%)には、真正な大腸ポリープと区別しやすく、ハレーション(N=14)、カメラレンズの表面曇り(N=4)、ぼやけ、ぼやけ(N=2)または排泄物(N=4)により人工的に生じた異常画像が含まれた。また、12の偽陽性画像(7%)は、真正なポリープとして疑われたが、最終的に確認できなかった。
また、図18に示すように、89の偽陰性画像のうち50の偽陰性画像(56%)は、主に小さい又は暗いことにより大腸ポリープの表面の質感を認識しにくく、畳み込みニューラルネットワークによって真正な大腸ポリープとして検出されなかったと考えられる。また、34の偽陰性画像(38%)は、大腸ポリープが側方から、または部分的に撮像されたため、畳み込みニューラルネットワークによって真正な大腸ポリープとして検出されなかったと考えられる。また、5の偽陰性画像(6%)は、大腸ポリープがとても大きいため、畳み込みニューラルネットワークによって真正な大腸ポリープとして検出されなかったと考えられる。
また、本発明者らは、畳み込みニューラルネットワークによって検出されて分類された大腸ポリープの分類(CNN分類)と、組織学的に証明された大腸プロープの分類(組織分類)との一致度合いを畳み込みニューラルネットワークの分類精度としてレビューした。図19は、CNN分類と組織分類との一致度合いを示す図である。
図19Aに示すように、被験者の大腸内に対して白色光を照射して撮像された内視鏡画像では、全体の83%の大腸ポリープの分類が、畳み込みニューラルネットワークによって正しく分類されていた。組織学的に腺腫として証明された大腸ポリープのうち97%の大腸ポリープは、畳み込みニューラルネットワークによって腺腫として正しく分類された。その際における畳み込みニューラルネットワークの診断能力(分類能力)に対する陽性的中率および陰性的中率は、それぞれ86%および85%であった。また、組織学的に過形成性ポリープとして証明された大腸ポリープのうち47%の大腸ポリープは、畳み込みニューラルネットワークによって過形成性ポリープとして正しく分類された。その際における畳み込みニューラルネットワークの診断能力(分類能力)に対する陽性的中率および陰性的中率は、それぞれ64%および90%であった。また、組織学的にSSAPとして証明された大腸ポリープの多くは、畳み込みニューラルネットワークによって腺腫(26%)または過形成性ポリープ(52%)として誤って分類された。
図19Bに示すように、被験者の大腸内に対して狭帯域光(NBI用狭帯域光)を照射して撮像された内視鏡画像では、全体の81%の大腸ポリープの分類が、畳み込みニューラルネットワークによって正しく分類されていた。組織学的に腺腫として証明された大腸ポリープのうち97%の大腸ポリープは、畳み込みニューラルネットワークによって腺腫として正しく分類された。その際における畳み込みニューラルネットワークの診断能力(分類能力)に対する陽性的中率および陰性的中率は、それぞれ83%および91%であった。
また、本発明者らは、5mm以下の大腸ポリープについて、畳み込みニューラルネットワークによって検出されて分類された大腸ポリープの分類(CNN分類)と、組織学的に証明された大腸プロープの分類(組織分類)との一致度合いを畳み込みニューラルネットワークの分類精度としてレビューした。図20は、5mm以下の大腸ポリープについて、CNN分類と組織分類との一致度合いを示す図である。
図20に示すように、被験者の大腸内に対して白色光を照射して撮像された内視鏡画像では、組織学的に腺腫として証明された大腸ポリープ(N=356)のうち98%の大腸ポリープ(N=348)は、畳み込みニューラルネットワークによって腺腫として正しく分類された。その際における畳み込みニューラルネットワークの診断能力(分類能力)に対する陽性的中率および陰性的中率は、それぞれ85%および88%であった。また、組織学的に過形成性ポリープとして証明された大腸ポリープのうち50%の大腸ポリープは、畳み込みニューラルネットワークによって過形成性ポリープとして正しく分類された。その際における畳み込みニューラルネットワークの診断能力(分類能力)に対する陽性的中率および陰性的中率は、それぞれ77%および88%であった。また、図示していないが、被験者の大腸内に対して狭帯域光(NBI用狭帯域光)を照射して撮像された内視鏡画像では、組織学的に腺腫として証明された大腸ポリープ(N=142)のうち97%の大腸ポリープ(N=138)は、畳み込みニューラルネットワークによって腺腫として正しく分類された。その際における畳み込みニューラルネットワークの診断能力(分類能力)に対する陽性的中率および陰性的中率は、それぞれ84%および88%であった。図19,20に示す結果から明らかなように、畳み込みニューラルネットワークの診断能力(分類能力)は、大腸ポリープの大きさに関係なく同等であることを示している。
以上の第2の評価試験の結果から、畳み込みニューラルネットワークは、大腸ポリープが小さくても、かなり正確かつ驚くべき速度で大腸ポリープを効果的に検出し、大腸の内視鏡検査における大腸ポリープの見逃しを減らすのに役立つ可能性があることが判った。さらに、畳み込みニューラルネットワークは、検出された大腸ポリープを正確に分類し、内視鏡医による内視鏡画像の診断を強力に支援することができることが判った。
図21,22は、第2の評価試験における内視鏡画像および解析結果画像の例を示す図である。図21Aは、畳み込みニューラルネットワークによって正しく検出および分類された大腸ポリープ(腺腫)を含む内視鏡画像および解析結果画像を示す。図21Aに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠110、病変名(腺腫:Adenoma)および確率スコア(0.97)が表示されている。なお、矩形枠112は、参考までに、組織学的に証明された大腸ポリープ(腺腫)の病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図21Bは、畳み込みニューラルネットワークによって正しく検出および分類された大腸ポリープ(過形成性ポリープ)を含む内視鏡画像および解析結果画像を示す。図21Bに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠114、病変名(過形成性ポリープ:Hyperplastic)および確率スコア(0.83)が表示されている。なお、矩形枠116は、参考までに、組織学的に証明された大腸ポリープ(過形成性ポリープ)の病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図21Cは、畳み込みニューラルネットワークによって検出されなかった、すなわち見逃された大腸ポリープ(腺腫)を含む内視鏡画像を偽陰性画像として示す。矩形枠118は、参考までに、組織学的に証明された大腸ポリープ(腺腫)の病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図21Dは、畳み込みニューラルネットワークによって誤って検出および分類された正常な大腸ひだを含む内視鏡画像および解析結果画像を偽陽性画像として示す。図21Dに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠120、病変名(腺腫:Hyperplastic)および確率スコア(0.70)が表示されている。
図21Eは、畳み込みニューラルネットワークによって病変位置(範囲)が正しく検出されたものの、誤って分類された大腸ポリープ(腺腫)を含む内視鏡画像および解析結果画像を示す。図21Eに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠122、病変名(過形成性ポリープ:Hyperplastic)および確率スコア(0.54)が表示されている。なお、矩形枠124は、参考までに、組織学的に証明された大腸ポリープ(腺腫)の病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図21Fは、畳み込みニューラルネットワークによって病変位置(範囲)が正しく検出されたものの、誤って分類された大腸ポリープ(過形成性ポリープ)を含む内視鏡画像および解析結果画像を示す。図21Fに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠126、病変名(腺腫:Adenoma)および確率スコア(0.62)が表示されている。なお、矩形枠128は、参考までに、組織学的に証明された大腸ポリープ(過形成性ポリープ)の病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図22Aは、畳み込みニューラルネットワークによって検出されなかった、すなわち見逃された大腸ポリープ(腺腫)を含む内視鏡画像を偽陰性画像として示す。矩形枠130,132は、参考までに、組織学的に証明された大腸ポリープ(腺腫)の病変位置(範囲)を示しており、実際の解析結果画像には表示されない。矩形枠130,132により示される大腸ポリープ(腺腫)はとても小さく、当該大腸ポリープを認識しにくい状況であったため、畳み込みニューラルネットワークによって検出されなかったと考えられる。
図22Bは、畳み込みニューラルネットワークによって検出されなかった、すなわち見逃された大腸ポリープ(腺腫)を含む内視鏡画像を偽陰性画像として示す。矩形枠134は、参考までに、組織学的に証明された大腸ポリープ(腺腫)の病変位置(範囲)を示しており、実際の解析結果画像には表示されない。矩形枠134により示される大腸ポリープ(腺腫)は暗く、当該大腸ポリープを認識しにくい状況であったため、畳み込みニューラルネットワークによって検出されなかったと考えられる。
図22Cは、畳み込みニューラルネットワークによって検出されなかった、すなわち見逃された大腸ポリープ(腺腫)を含む内視鏡画像を偽陰性画像として示す。矩形枠136は、参考までに、組織学的に証明された大腸ポリープ(腺腫)の病変位置(範囲)を示しており、実際の解析結果画像には表示されない。矩形枠136により示される大腸ポリープ(腺腫)が側方から、または、部分的に撮像されたため、畳み込みニューラルネットワークによって検出されなかったと考えられる。
図22Dは、畳み込みニューラルネットワークによって検出されなかった、すなわち見逃された大腸ポリープ(腺腫)を含む内視鏡画像を偽陰性画像として示す。矩形枠138は、参考までに、組織学的に証明された大腸ポリープ(腺腫)の病変位置(範囲)を示しており、実際の解析結果画像には表示されない。矩形枠138により示される大腸ポリープ(腺腫)はとても大きく、当該大腸ポリープを認識しにくい状況であったため、畳み込みニューラルネットワークによって検出されなかったと考えられる。
図22Eは、畳み込みニューラルネットワークによって誤って検出および分類された回盲弁(正常構造)を含む内視鏡画像および解析結果画像を偽陽性画像として示す。図22Eに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠140、病変名(その他:The others)および確率スコア(0.62)が表示されている。
図22Fは、畳み込みニューラルネットワークによって誤って検出および分類された正常な大腸ひだを含む内視鏡画像および解析結果画像を偽陽性画像として示す。図22Fに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠142、病変名(腺腫:Adenoma)および確率スコア(0.32)が表示されている。
図22Gは、畳み込みニューラルネットワークによって誤って検出および分類されたハレーション(人工的な異常画像)を含む内視鏡画像および解析結果画像を偽陽性画像として示す。図22Gに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠144、病変名(腺腫:Adenoma)および確率スコア(0.43)が表示されている。
図22Hは、畳み込みニューラルネットワークによって誤って検出および分類されたポリープを含む内視鏡画像および解析結果画像を偽陽性画像として示す。当該ポリープは、真正なポリープと疑われたが、最終的に確認できなかった。図22Hに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠146、病変名(過形成性ポリープ:Hyperplastic)および確率スコア(0.48)が表示されている。
次に、上記実施の形態の構成における効果を確認するための第3の評価試験について説明する。
[学習用データセットの準備]
2016年2月〜2017年4月にかけて行われた食道の内視鏡画像8,428枚(384人)を、画像診断支援装置における畳み込みニューラルネットワークの学習に使用する学習用データセット(教師データ)として用意した。内視鏡画像には、認定病理学者によって組織学的に証明された食道がん(具体的には、扁平上皮がん(ESCC)または腺がん(EAC))が含まれる。内視鏡検査は、日常診療におけるスクリーニングまたは術前検査のために実施され、内視鏡画像は、標準的な内視鏡(GIF−H290Z、GIF−H290、GIF−XP290N、GIF−H260Z、GIF−H260、オリンパスメディカルシステムズ社、東京)および標準的な内視鏡ビデオシステム(EVIS LUCERA CV−260/CLV−260、EVIS LUCERA ELITE CV−290/CLV−290SL、オリンパスメディカルシステムズ社)を用いて収集した。
学習用データセットとしての内視鏡画像には、被験者の食道内に対して白色光を照射して撮像された内視鏡画像、および、被験者の食道内に対して狭帯域光(NBI用狭帯域光)を照射して撮像された内視鏡画像を含めた。また、ハレーション、レンズのくもり、焦点外れ、粘液または送気不足等のために、画像品質が悪い内視鏡画像は、学習用データセットから除外した。
最終的に、学習用データセットとして、組織学的に証明された食道がんに関する8,428枚の内視鏡画像を収集した。当該内視鏡画像には、表在型食道がん332病変と進行胃がん65病変とからなる397病変の扁平上皮がんと、表在型食道がん19病変と進行胃がん13病変とからなる腺がん32病変とが含まれていた。収集された内視鏡画像において、上部内視鏡検査の件数が2,000症例以上の経験豊富な内視鏡医は、全ての食道がん(扁平上皮がんまたは腺がん)の病変名(表在型食道がん、または、進行型食道がん)および病変位置を精密に手動で特徴抽出のマーキング設定を行った。
[学習・アルゴリズム]
画像診断支援装置を構築するため、Single Shot MultiBox Detector(SSD、https://arxiv.org/abs/1512.02325)をベースとした16層以上で構成される畳み込みニューラルネットワークを使用した。バークレービジョン及びラーニングセンター(Berkeley Vision and Learning Center (BVLC))で開発されたCaffeディープラーニングフレームワークを学習および評価試験に使用した。畳み込みニューラルネットワークの全ての層は、確率的勾配降下法を使用して、グローバル学習率0.0001で微調整されている。CNNと互換性を持たせるために、各画像を300×300ピクセルにリサイズした。各画像のリサイズに応じて、病変の病変位置に対するマーキングのサイズ変更を行った。
[評価試験用データセットの準備]
構築された畳み込みニューラルネットワークベースの画像診断支援装置の診断精度を評価するために、通常の臨床検査として内視鏡検査を受けた97人の患者(47人:食道がん49病変を有する、50人:食道がんを有しない)を対象にして、1,118の内視鏡画像(食道)を評価試験用データセットとして収集した。その結果、47人の患者のうち45人に食道がんが1病変存在し、2人に食道がんが2病変存在していた。評価試験用データセットとしての内視鏡画像には、学習用データセットと同様に、被験者の食道内に対して白色光を照射して撮像された内視鏡画像、および、被験者の食道内に対して狭帯域光(NBI用狭帯域光)を照射して撮像された内視鏡画像を含めた。
図23は、評価試験用データセットに用いられた内視鏡画像に関する患者(n=47)および病変(n=49)の特徴を示す図である。図23に示すように、腫瘍サイズ(直径)の中央値は20mmであり、腫瘍サイズ(直径)の範囲は5〜700mmであった。肉眼的分類では、43病変で表在型(0−I型、0−IIa型、0−IIb型、0−IIc型)が進行型(6病変)より多かった。腫瘍の深さでは、表在型食道がん(粘膜がん:T1a、粘膜下がん:T1b)が42病変であり、進行胃がん(T2−T4)が7病変であった。組織病理学では、扁平上皮がんが41病変であり、腺がんが8病変であった。
[評価試験の方法]
本評価試験では、学習用データセットを用いて学習処理が行われた畳み込みニューラルネットワークベースの画像診断支援装置に対して評価試験用データセットを入力し、当該評価試験用データセットを構成する各内視鏡画像から食道がんを正しく検出できるか否かについて評価した。食道がんを正しく検出できた場合を「正解」とみなした。畳み込みニューラルネットワークは、内視鏡画像から食道がんを検出すると、その病変名(表在型食道がん、または、進行型食道がん)、病変位置および確率スコアを出力する。
なお、評価試験の結果を取得する際、以下の定義を使用して評価試験を行った。
(定義1)
畳み込みニューラルネットワークが食道がんの一部でも検出した場合、本評価試験では、畳み込みニューラルネットワークは、食道がんを検出したと判断し、正解とみなした。なぜなら、内視鏡画像において食道がんの境界全体を認識することが困難な場合があるからです。ただし、畳み込みニューラルネットワークによって検出された食道がんの病変位置(範囲)を示す矩形枠内に実際に食道がんが存在した場合でも、その矩形枠が非食道がんの部位を広範囲(内視鏡画像の80%以上)に含むときには、本評価試験では、畳み込みニューラルネットワークは食道がんを検出できなかったと判断した。
(定義2)
食道がんが2病変存在していた2人の患者に関する内視鏡画像において、畳み込みニューラルネットワークが当該2病変を検出した場合に限り、本評価試験では、畳み込みニューラルネットワークが食道がんを検出したと判断し、正解とみなした。
(定義3)
食道がんの存在しない内視鏡画像において畳み込みニューラルネットワークが少なくとも1つの非食道がんの部位を食道がんとして検出した場合、本評価試験では、畳み込みニューラルネットワークが食道がんを誤検出したと判断し、偽陽性とみなした。ただし、食道がんの存在しない1つの内視鏡画像において畳み込みニューラルネットワークが2つの非食道がんの部位を食道がんとして誤検出した場合、本評価試験では、2つではなく1つの偽陽性としてカウントした。
また、本評価試験では、各内視鏡画像における食道がんを検出する畳み込みニューラルネットワークの診断能力に対する感度、特異度、陽性的中率(PPV)および陰性的中率(NPV)を次の式(1)〜(4)を用いて算出した。
感度=(畳み込みニューラルネットワークが食道がんを正しく検出した内視鏡画像の数)/(評価試験用データセットを構成し、食道がんが存在する内視鏡画像の数)・・・(1)
特異度=(畳み込みニューラルネットワークが、食道がんが存在しないことを正しく検出した内視鏡画像の数)/(評価試験用データセットを構成し、食道がんが存在しない内視鏡画像の数)・・・(2)
陽性的中率=(畳み込みニューラルネットワークが食道がんを正しく検出した内視鏡画像の数)/(畳み込みニューラルネットワークが食道がんを検出した内視鏡画像の数)・・・(3)
陰性的中率=(畳み込みニューラルネットワークが、食道がんが存在しないことを正しく検出した内視鏡画像の数)/(畳み込みニューラルネットワークが、食道がんが存在しないことを検出した内視鏡画像の数)・・・(4)
[評価試験の結果]
畳み込みニューラルネットワークは、評価試験用データセットを構成する1,118の内視鏡画像を分析する処理を27秒で終了させた。注目すべきことに、畳み込みニューラルネットワークは、腫瘍サイズが10mm未満である全て(7つ)の食道がんを正しく検出した。畳み込みニューラルネットワークの診断能力に対する陽性的中率は40%であり、陰影と正常構造の誤診断であったが、陰性的中率は95%であった。また、畳み込みニューラルネットワークは、食道がんの分類(表在型食道がんまたは進行型食道がん)を98%の精度で正しく検出した。
図24は、第3の評価試験における内視鏡画像および解析結果画像の例を示す図である。図24Aは、畳み込みニューラルネットワークによって正しく検出および分類された食道がんを含む内視鏡画像(被験者の食道内に対して白色光を照射して撮像された内視鏡画像)および解析結果画像を示す。図24Aに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠150、病変名(表在型食道がん)および確率スコア(0.91)が表示されている。なお、矩形枠152は、参考までに、組織学的に証明された食道がんの病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図24Bは、図24Aに対応し、畳み込みニューラルネットワークによって正しく検出および分類された食道がんを含む内視鏡画像(被験者の食道内に対してNBI用狭帯域光を照射して撮像された内視鏡画像)および解析結果画像を示す。図24Bに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠154、病変名(表在型食道がん)および確率スコア(0.97)が表示されている。なお、矩形枠156は、参考までに、組織学的に証明された食道がんの病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図24Cは、畳み込みニューラルネットワークによって検出されなかった、すなわち見逃された食道がんを含む内視鏡画像(被験者の食道内に対して白色光を照射して撮像された内視鏡画像)を偽陰性画像として示す。矩形枠158は、参考までに、組織学的に証明された食道がんの病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図24Dは、図24Cに対応し、畳み込みニューラルネットワークによって正しく検出および分類された食道がんを含む内視鏡画像(被験者の食道内に対してNBI用狭帯域光を照射して撮像された内視鏡画像)および解析結果画像を示す。図24Dに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠160、病変名(表在型食道がん)および確率スコア(0.98)が表示されている。なお、矩形枠162は、参考までに、組織学的に証明された食道がんの病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図25は、食道がんを有する47人の症例(食道がん)、食道がんを有しない50人の症例(非食道がん)について、畳み込みニューラルネットワークによる食道がん/非食道がんの検出結果、および、生検による食道がん/非食道がんの検出結果を示す図である。図25において、包括的な診断結果では、被験者の食道内に対して白色光およびNBI用狭帯域光の少なくとも一方を照射して撮像された内視鏡画像において、畳み込みニューラルネットワークが食道がん/非食道がんを正しく検出した場合、本評価試験では、畳み込みニューラルネットワークが食道がん/非食道がんを正しく検出したと判断した。図25に示すように、畳み込みニューラルネットワークは、包括的な診断を行った場合、内視鏡画像に食道がんが存在する症例の98%(46/47)において、食道がんを正しく検出した。また、図示していないが、畳み込みニューラルネットワークは、腫瘍サイズが10mm未満である全ての食道がんを正しく検出した。
図26は、図25に示す各症例において、白色光を照射して撮像された内視鏡画像における感度(以下、白色光感度)、NBI用狭帯域光を照射して撮像された内視鏡画像における感度(以下、NBI用狭帯域光感度)、および、白色光およびNBI用狭帯域光の少なくとも一方を照射して撮像された内視鏡画像における感度(以下、包括的感度)を示す図である。図26に示すように、図25に示す各症例において、NBI用狭帯域光感度(89%)は白色光感度(81%)より高く、包括的感度(98%)は白色光感度より非常に高かった。扁平上皮がんに関する白色光感度、NBI用狭帯域光感度および包括的感度は、それぞれ79%、89%、97%であった。腺がんに関する白色光感度、NBI用狭帯域光感度および包括的感度は、それぞれ88%、88%、100%であった。
図27は、白色光またはNBI用狭帯域光を照射して撮像された各内視鏡画像について、畳み込みニューラルネットワークによる食道がん/非食道がんの検出結果、および、生検による食道がん/非食道がんの検出結果を示す図である。図28は、図27に示す各内視鏡画像において、白色光を照射して撮像された内視鏡画像における感度(以下、白色光感度)、および、NBI用狭帯域光を照射して撮像された内視鏡画像における感度(以下、NBI用狭帯域光感度)を示す図である。
図27に示すように、畳み込みニューラルネットワークは、生検結果として食道がんが存在すると診断された内視鏡画像の74%(125/168)において、食道がんを正しく検出した。そして、畳み込みニューラルネットワークの診断能力に対する感度、特異度、陽性的中率および陰性的中率は、それぞれ74%、80%、40%および95%であった。また、図28に示すように、NBI用狭帯域光感度(81%)は、白色光感度(69%)より高かった。扁平上皮がんに関する白色光感度およびNBI用狭帯域光感度は、それぞれ72%、84%であった。腺がんに関する白色光感度およびNBI用狭帯域光感度は、それぞれ55%、67%であった。
本発明者らは、畳み込みニューラルネットワークによって検出されて分類された食道がんの分類(CNN分類)と、組織学的に証明された食道がんの分類(深達度)との一致度合いを畳み込みニューラルネットワークの分類精度としてレビューした。図29は、CNN分類と深達度との一致度合いを示す図である。
図29に示すように、被験者の食道内に対して白色光を照射して撮像された内視鏡画像では、全体の100%(89/89)の食道がんの分類が、畳み込みニューラルネットワークによって正しく分類されていた。すなわち、組織学的に表在型食道がんとして証明された食道がんのうち100%(75/75)の食道がんは、畳み込みニューラルネットワークによって表在型食道がんとして正しく分類された。また、組織学的に進行型食道がんとして証明された食道がんのうち100%(14/14)の食道がんは、畳み込みニューラルネットワークによって進行型食道がんとして正しく分類された。
また、被験者の食道内に対してNBI用狭帯域光を照射して撮像された内視鏡画像では、全体の96%(76/79)の食道がんの分類が、畳み込みニューラルネットワークによって正しく分類されていた。組織学的に表在型食道がんとして証明された食道がんのうち99%(67/68)の食道がんは、畳み込みニューラルネットワークによって表在型食道がんとして正しく分類された。また、組織学的に進行型食道がんとして証明された食道がんのうち82%(9/11)の食道がんは、畳み込みニューラルネットワークによって進行型食道がんとして正しく分類された。
また、被験者の食道内に対して白色光またはNBI用狭帯域光を照射して撮像された内視鏡画像では、全体の98%(165/168)の食道がんの分類が、畳み込みニューラルネットワークによって正しく分類されていた。組織学的に表在型食道がんとして証明された食道がんのうち99%(142/143)の食道がんは、畳み込みニューラルネットワークによって表在型食道がんとして正しく分類された。また、組織学的に進行型食道がんとして証明された食道がんのうち92%(23/25)の食道がんは、畳み込みニューラルネットワークによって進行型食道がんとして正しく分類された。以上のように、畳み込みニューラルネットワークの分類精度は、非常に高いことが判った。なお、扁平上皮がんおよび腺がんに関する畳み込みニューラルネットワークの分類精度は、それぞれ99%(146/147)および90%(19/21)であった。
畳み込みニューラルネットワークの診断能力を向上させるためには、畳み込みニューラルネットワークによって誤って食道がんが検出された理由と、真正な食道がんが正しく検出されなかった、すなわち見逃された理由とを検証することが重要である。そこで、本発明者らは、畳み込みニューラルネットワークによって誤って食道がんが検出された内視鏡画像(偽陽性画像)、および、畳み込みニューラルネットワークによって真正な食道がんが検出されなかった内視鏡画像(偽陰性画像)の全てをレビューし、いくつかのカテゴリに分類した。
図30は、偽陽性画像および偽陰性画像の分類結果を示す図である。図30に示すように、188の偽陽性画像のうち95の偽陽性画像(50%)は陰影を伴っていた。また、61の偽陽性画像(32%)は食道がんと判別しやすい正常構造を含み、その大部分は食道胃接合部(EGJ)や左主気管支であった。また、32の偽陽性画像(17%)は食道がんとして誤診される可能性がある良性病変を含み、その大部分は術後瘢痕、焦点萎縮、バレット食道、炎症であった。
図31Aは、陰影を伴っていたため、畳み込みニューラルネットワークによって誤って検出および分類された内視鏡画像および解析結果画像を偽陽性画像として示す図である。図31Aに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠170、病変名(表在型食道がん)および確率スコア(0.70)が表示されている。
図31Bは、食道がんと判別しやすい正常構造(食道胃接合部)を含んでいたため、畳み込みニューラルネットワークによって誤って検出および分類された内視鏡画像および解析結果画像を偽陽性画像として示す図である。図31Bに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠172、病変名(表在型食道がん)および確率スコア(0.57)が表示されている。
図31Cは、食道がんと判別しやすい正常構造(左主気管支)を含んでいたため、畳み込みニューラルネットワークによって誤って検出および分類された内視鏡画像および解析結果画像を偽陽性画像として示す図である。図31Cに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠174、病変名(表在型食道がん)および確率スコア(0.60)が表示されている。
図31Dは、食道がんと判別しやすい正常構造(椎体)を含んでいたため、畳み込みニューラルネットワークによって誤って検出および分類された内視鏡画像および解析結果画像を偽陽性画像として示す図である。図31Dに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠176、病変名(表在型食道がん)および確率スコア(0.80)が表示されている。
図31Eは、食道がんとして誤診される可能性がある良性病変(術後瘢痕)を含んでいたため、畳み込みニューラルネットワークによって誤って検出および分類された内視鏡画像および解析結果画像を偽陽性画像として示す図である。図31Eに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠178、病変名(表在型食道がん)および確率スコア(0.88)が表示されている。
図31Fは、食道がんとして誤診される可能性がある良性病変(焦点萎縮)を含んでいたため、畳み込みニューラルネットワークによって誤って検出および分類された内視鏡画像および解析結果画像を偽陽性画像として示す図である。図31Fに示すように、解析結果画像には、畳み込みニューラルネットワークにより推定された病変位置(範囲)を示す矩形枠180、病変名(表在型食道がん)および確率スコア(0.83)が表示されている。
また、図30に示すように、41の偽陰性画像のうち10の偽陰性画像(25%)は、畳み込みニューラルネットワークによって背景粘膜による炎症として誤診断された結果として、真正な食道がんとして検出されなかったと考えられる。また、7の偽陰性画像(17%)は、NBI用狭帯域光を照射された扁平上皮がんが不明瞭に撮像されたため、畳み込みニューラルネットワークによって真正な食道がんとして検出されなかったと考えられる。
また、4の偽陰性画像(10%)は、バレット食道腺がんが存在したものの腺がんに関する学習に不十分なところがあったため、畳み込みニューラルネットワークによって真正な食道がんとして検出されなかったと考えられる。また、20の偽陰性画像(49%)は、内視鏡画像において病変が遠方に存在する、病変の一部のみが存在する等の診断困難な状態であったため、畳み込みニューラルネットワークによって真正な食道がんとして検出されなかったと考えられる。
図32Aは、内視鏡画像において病変が遠方に存在し診断困難な状態であったため、畳み込みニューラルネットワークによって検出されなかった食道がんを含む内視鏡画像を偽陰性画像として示す図である。矩形枠182は、参考までに、組織学的に証明された食道がんの病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図32Bは、内視鏡画像において病変の一部のみが存在し診断困難な状態であったため、畳み込みニューラルネットワークによって検出されなかった食道がんを含む内視鏡画像を偽陰性画像として示す図である。矩形枠184は、参考までに、組織学的に証明された食道がんの病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図32Cは、背景粘膜による炎症として誤診断された結果として、畳み込みニューラルネットワークによって検出されなかった食道がんを含む内視鏡画像を偽陰性画像として示す図である。矩形枠186は、参考までに、組織学的に証明された食道がんの病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図32Dは、NBI用狭帯域光を照射された扁平上皮がんが不明瞭に撮像されたため、畳み込みニューラルネットワークによって検出されなかった食道がんを含む内視鏡画像を偽陰性画像として示す図である。矩形枠188は、参考までに、組織学的に証明された食道がんの病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
図32Eは、バレット食道腺がんが存在したものの腺がんに関する学習に不十分なところがあったため、畳み込みニューラルネットワークによって検出されなかった食道がん(バレット食道腺がん)を含む内視鏡画像を偽陰性画像として示す図である。矩形枠190は、参考までに、組織学的に証明された食道がんの病変位置(範囲)を示しており、実際の解析結果画像には表示されない。
以上の第3の評価試験の結果から、畳み込みニューラルネットワークは、食道がんが小さくても、かなり正確かつ驚くべき速度で食道がんを効果的に検出し、食道の内視鏡検査における食道がんの見逃しを減らすのに役立つ可能性があることが判った。さらに、畳み込みニューラルネットワークは、検出された食道がんを正確に分類し、内視鏡医による内視鏡画像の診断を強力に支援することができることが判った。そして、より多くの学習処理を行うことによって、畳み込みニューラルネットワークはより高い診断精度を達成すると考えられる。
2017年10月30日出願の特願2017−209232、2018年1月22日出願の特願2018−007967、2018年3月5日出願の特願2018−038828の日本出願に含まれる明細書、図面および要約書の開示内容は、全て本願に援用される。
本発明は、内視鏡医による内視鏡画像の診断を支援することが可能な画像診断支援装置、資料収集方法、画像診断支援方法および画像診断支援プログラムとして有用である。
10 内視鏡画像取得部
20 病変推定部
30 表示制御部
40 学習装置
100 画像診断支援装置
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 通信インターフェイス
200 内視鏡撮像装置
300 表示装置
D1 内視鏡画像データ
D2 推定結果データ
D3 解析結果画像データ
D4 教師データ

Claims (7)

  1. 内視鏡画像における病変の位置を入力することなく当該内視鏡画像を入力した場合、当該内視鏡画像内に存在する病変の位置を出力する畳み込みニューラルネットワークの出力結果により、消化器内視鏡撮像装置により撮像された被験者の消化器内視鏡画像内に存在する病変の位置を、畳み込みニューラルネットワークによって推定して出力する病変推定部を備え、
    前記畳み込みニューラルネットワークは、複数の消化器腫瘍内視鏡画像内においてあらかじめ判定された病変を教師データとして学習処理が行われる、
    画像診断支援装置。
  2. 前記病変推定部は、前記消化器内視鏡画像内に存在する病変の名称および位置と、それらの確度の情報とを、前記畳み込みニューラルネットワークによって推定して出力し、
    前記畳み込みニューラルネットワークは、前記複数の消化器腫瘍内視鏡画像内においてあらかじめ判定された病変の病変名および病変を教師データとして学習処理が行われる、
    請求項1に記載の画像診断支援装置。
  3. 前記病変推定部は、病変の位置を入力することなく複数の診察室から伝送される内視鏡画像を入力した場合、前記消化器内視鏡画像内に存在する病変の位置を、前記畳み込みニューラルネットワークによって推定する、
    請求項1に記載の画像診断支援装置。
  4. 前記病変推定部は、遠隔地からの遠隔操作により、前記消化器内視鏡画像内に存在する病変の位置を、前記畳み込みニューラルネットワークによって推定する、
    請求項1に記載の画像診断支援装置。
  5. 請求項1に記載の前記畳み込みニューラルネットワークに対する前記学習処理によって得られ、
    内視鏡画像における病変の位置を入力することなく当該内視鏡画像を入力した場合、当該内視鏡画像内に存在する病変の位置を出力するようコンピューターを機能させる学習済みモデル。
  6. 内視鏡画像における病変の位置を入力することなく当該内視鏡画像を入力した場合、当該内視鏡画像内に存在する病変の位置を出力する畳み込みニューラルネットワークの出力結果により、消化器内視鏡撮像装置により撮像された被験者の消化器内視鏡画像内に存在する病変の位置を、畳み込みニューラルネットワークによって推定して出力する病変推定部を備える装置を用い、
    前記畳み込みニューラルネットワークは、複数の消化器腫瘍内視鏡画像内においてあらかじめ判定された病変を教師データとして学習処理が行われる、
    画像診断支援方法。
  7. コンピューターに、
    内視鏡画像における病変の位置を入力することなく当該内視鏡画像を入力した場合、当該内視鏡画像内に存在する病変の位置を出力する畳み込みニューラルネットワークの出力結果により、消化器内視鏡撮像装置により撮像された被験者の消化器内視鏡画像内に存在する病変の位置を、畳み込みニューラルネットワークによって推定して出力する処理を実行させ、
    前記畳み込みニューラルネットワークは、複数の消化器腫瘍内視鏡画像内においてあらかじめ判定された病変を教師データとして学習処理が行われる、
    画像診断支援プログラム。
JP2020018003A 2017-10-30 2020-02-05 画像診断支援装置、学習済みモデル、画像診断支援装置の作動方法および画像診断支援プログラム Active JP7335552B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2017209232 2017-10-30
JP2017209232 2017-10-30
JP2018007967 2018-01-22
JP2018007967 2018-01-22
JP2018038828 2018-03-05
JP2018038828 2018-03-05
JP2019520910A JP6657480B2 (ja) 2017-10-30 2018-10-30 画像診断支援装置、画像診断支援装置の作動方法および画像診断支援プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019520910A Division JP6657480B2 (ja) 2017-10-30 2018-10-30 画像診断支援装置、画像診断支援装置の作動方法および画像診断支援プログラム

Publications (3)

Publication Number Publication Date
JP2020073081A true JP2020073081A (ja) 2020-05-14
JP2020073081A5 JP2020073081A5 (ja) 2020-06-25
JP7335552B2 JP7335552B2 (ja) 2023-08-30

Family

ID=66333530

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019520910A Active JP6657480B2 (ja) 2017-10-30 2018-10-30 画像診断支援装置、画像診断支援装置の作動方法および画像診断支援プログラム
JP2020018003A Active JP7335552B2 (ja) 2017-10-30 2020-02-05 画像診断支援装置、学習済みモデル、画像診断支援装置の作動方法および画像診断支援プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019520910A Active JP6657480B2 (ja) 2017-10-30 2018-10-30 画像診断支援装置、画像診断支援装置の作動方法および画像診断支援プログラム

Country Status (9)

Country Link
US (1) US11633084B2 (ja)
EP (1) EP3705025A4 (ja)
JP (2) JP6657480B2 (ja)
KR (1) KR20200106028A (ja)
CN (1) CN111655116A (ja)
BR (1) BR112020008774A2 (ja)
SG (1) SG11202003973VA (ja)
TW (1) TW201922174A (ja)
WO (1) WO2019088121A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102222547B1 (ko) * 2020-07-15 2021-03-04 주식회사 웨이센 인공지능 기반의 대장내시경 영상 분석 방법
KR102255311B1 (ko) * 2020-08-10 2021-05-24 주식회사 웨이센 인공지능 기반의 위내시경 영상 분석 방법
KR102262684B1 (ko) * 2020-11-13 2021-06-09 주식회사 웨이센 영상 수신 장치의 인공지능 기반의 영상 처리 방법
WO2021240656A1 (ja) * 2020-05-26 2021-12-02 日本電気株式会社 画像処理装置、制御方法及び記憶媒体
WO2022010106A1 (ko) * 2020-07-08 2022-01-13 주식회사 메가젠임플란트 학습 데이터 생성장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체
WO2022149836A1 (ko) * 2021-01-11 2022-07-14 한림대학교 산학협력단 실시간 영상을 통해 획득되는 병변 판단 시스템의 제어 방법, 장치 및 프로그램
JP7142754B1 (ja) * 2021-07-16 2022-09-27 ナショナル チュン チェン ユニバーシティ 畳み込みニューラルネットワークを使用して食道癌の画像を検出する方法
WO2022208615A1 (ja) * 2021-03-29 2022-10-06 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
JP7449004B2 (ja) 2022-03-04 2024-03-13 ナショナル チュン チェン ユニバーシティ 周波数帯域を用いたハイパースペクトルによる物体画像の検出方法

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818424B2 (ja) * 2016-04-13 2021-01-20 キヤノン株式会社 診断支援装置、情報処理方法、診断支援システム及びプログラム
US11100633B2 (en) 2018-06-13 2021-08-24 Cosmo Artificial Intelligence—Al Limited Systems and methods for processing real-time video from a medical image device and detecting objects in the video
WO2020008834A1 (ja) * 2018-07-05 2020-01-09 富士フイルム株式会社 画像処理装置、方法及び内視鏡システム
CN112513926A (zh) * 2018-07-31 2021-03-16 奥林巴斯株式会社 图像解析装置及图像解析方法
US11510561B2 (en) * 2018-08-21 2022-11-29 Verily Life Sciences Llc Endoscope defogging
KR102210806B1 (ko) * 2018-10-02 2021-02-01 한림대학교 산학협력단 위 내시경 이미지의 딥러닝을 이용하여 위 병변을 진단하는 장치 및 방법
KR102168485B1 (ko) * 2018-10-02 2020-10-21 한림대학교 산학협력단 실시간으로 획득되는 위 내시경 이미지를 기반으로 위 병변을 진단하는 내시경 장치 및 방법
US20210407077A1 (en) * 2018-12-04 2021-12-30 Hoya Corporation Information processing device and model generation method
WO2020174747A1 (ja) * 2019-02-26 2020-09-03 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
WO2020194568A1 (ja) * 2019-03-27 2020-10-01 Hoya株式会社 内視鏡用プロセッサ、情報処理装置、内視鏡システム、プログラム及び情報処理方法
JP2021012570A (ja) * 2019-07-08 2021-02-04 株式会社日立製作所 破面解析装置及び破面解析方法
CN110517745B (zh) * 2019-08-15 2023-06-27 中山大学肿瘤防治中心 医疗检查结果的展示方法、装置、电子设备及存储介质
WO2021033303A1 (ja) * 2019-08-22 2021-02-25 Hoya株式会社 訓練データ生成方法、学習済みモデル及び情報処理装置
WO2021054477A2 (ja) * 2019-09-20 2021-03-25 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
JP7315809B2 (ja) * 2019-10-08 2023-07-27 公立大学法人会津大学 大腸内視鏡検査補助装置、大腸内視鏡検査補助方法及び大腸内視鏡検査補助プログラム
TWI726459B (zh) * 2019-10-25 2021-05-01 中國醫藥大學附設醫院 遷移學習輔助預測系統、方法及電腦程式產品
WO2021095446A1 (ja) * 2019-11-11 2021-05-20 富士フイルム株式会社 情報表示システムおよび情報表示方法
JP7320260B2 (ja) * 2019-11-15 2023-08-03 オーアイ・イノベーション株式会社 髄位置推定装置および製材システム
JP7346285B2 (ja) * 2019-12-24 2023-09-19 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理装置の作動方法及びプログラム
US11172210B2 (en) * 2020-01-05 2021-11-09 Isize Limited Processing image data
TWI725716B (zh) * 2020-01-21 2021-04-21 雲象科技股份有限公司 內視鏡檢測系統及其方法
US20230337893A1 (en) * 2020-03-31 2023-10-26 Nec Corporation Information processing device, display method, and non-transitory computer-readable medium for storing program
CN115397303A (zh) * 2020-04-08 2022-11-25 富士胶片株式会社 处理器装置及其工作方法
CN115460968A (zh) * 2020-04-27 2022-12-09 公益财团法人癌研究会 图像诊断装置、图像诊断方法、图像诊断程序和学习完毕模型
US20230134603A1 (en) * 2020-05-01 2023-05-04 Given Imaging Ltd. Systems and methods for selecting images of event indicators
CN116133572A (zh) * 2020-07-14 2023-05-16 富士胶片株式会社 图像分析处理装置、内窥镜系统、图像分析处理装置的工作方法及图像分析处理装置用程序
US20220039806A1 (en) * 2020-08-10 2022-02-10 Kunnskap Medical, LLC Endoscopic system with component control
CN112426119B (zh) * 2021-01-26 2021-04-13 上海孚慈医疗科技有限公司 一种内窥镜筛查处理方法和装置
JP2022135013A (ja) * 2021-03-04 2022-09-15 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
TWI797585B (zh) * 2021-03-31 2023-04-01 艾陽科技股份有限公司 雷達感測心律方法及其系統
CN113456002A (zh) * 2021-07-15 2021-10-01 显微智能科技(湖南)有限公司 一种体内癌症细胞定位装置及方法
JP2023044308A (ja) * 2021-09-17 2023-03-30 Hoya株式会社 コンピュータプログラム、情報処理方法及び内視鏡
JP2023045168A (ja) 2021-09-21 2023-04-03 学校法人帝京大学 医用画像診断支援装置、医用画像診断支援方法およびプログラム
TWI789932B (zh) * 2021-10-01 2023-01-11 國泰醫療財團法人國泰綜合醫院 大腸瘜肉影像偵測方法、裝置及其系統
CN114569043A (zh) * 2022-01-29 2022-06-03 重庆天如生物科技有限公司 一种基于人工智能的内窥镜辅助检查方法及装置
WO2024009631A1 (ja) * 2022-07-06 2024-01-11 富士フイルム株式会社 画像処理装置及び画像処理装置の作動方法
CN116681681B (zh) * 2023-06-13 2024-04-02 富士胶片(中国)投资有限公司 内窥镜图像的处理方法、装置、用户设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012165505A1 (ja) * 2011-06-02 2012-12-06 オリンパス株式会社 蛍光観察装置
WO2016185617A1 (ja) * 2015-05-21 2016-11-24 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2017017722A1 (ja) * 2015-07-24 2017-02-02 オリンパス株式会社 処理装置、処理方法及びプログラム
WO2017042812A2 (en) * 2015-09-10 2017-03-16 Magentiq Eye Ltd. A system and method for detection of suspicious tissue regions in an endoscopic procedure
WO2017104192A1 (ja) * 2015-12-17 2017-06-22 オリンパス株式会社 医用観察システム
WO2017175282A1 (ja) * 2016-04-04 2017-10-12 オリンパス株式会社 学習方法、画像認識装置およびプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4450973B2 (ja) * 2000-11-30 2010-04-14 オリンパス株式会社 診断支援装置
JP2007280229A (ja) * 2006-04-11 2007-10-25 Fujifilm Corp 類似症例検索装置、類似症例検索方法およびそのプログラム
US20080058593A1 (en) * 2006-08-21 2008-03-06 Sti Medical Systems, Llc Computer aided diagnosis using video from endoscopes
CA3106530A1 (en) 2006-11-15 2008-05-22 Cfph, L.L.C. Systems and methods for determining that a gaming device is communicating with a gaming server
CN101584571A (zh) * 2009-06-15 2009-11-25 无锡骏聿科技有限公司 一种胶囊内镜辅助读片方法
JP5455550B2 (ja) * 2009-10-23 2014-03-26 Hoya株式会社 電子内視鏡用プロセッサ
WO2011156001A1 (en) * 2010-06-07 2011-12-15 Sti Medical Systems, Llc Versatile video interpretation,visualization, and management system
EP2598034B1 (en) * 2010-07-26 2018-07-18 Kjaya, LLC Adaptive visualization for direct physician use
JP5800595B2 (ja) 2010-08-27 2015-10-28 キヤノン株式会社 医療診断支援装置、医療診断支援システム、医療診断支援の制御方法、及びプログラム
JP5670695B2 (ja) * 2010-10-18 2015-02-18 ソニー株式会社 情報処理装置及び方法、並びにプログラム
US20170140528A1 (en) * 2014-01-25 2017-05-18 Amir Aharon Handzel Automated histological diagnosis of bacterial infection using image analysis
KR20160049897A (ko) * 2014-10-28 2016-05-10 삼성전자주식회사 연속적인 의료 영상을 이용한 컴퓨터 보조 진단 장치 및 방법
US9672596B2 (en) * 2015-03-31 2017-06-06 Olympus Corporation Image processing apparatus to generate a reduced image of an endoscopic image
JP6528608B2 (ja) 2015-08-28 2019-06-12 カシオ計算機株式会社 診断装置、及び診断装置における学習処理方法、並びにプログラム
JP6545591B2 (ja) 2015-09-28 2019-07-17 富士フイルム富山化学株式会社 診断支援装置、方法及びコンピュータプログラム
CN105574871A (zh) * 2015-12-16 2016-05-11 深圳市智影医疗科技有限公司 在放射图像中检测肺部局部性病变的分割分类方法和系统
JP6495539B2 (ja) 2016-03-29 2019-04-03 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP6401737B2 (ja) 2016-05-24 2018-10-10 株式会社三共 遊技機
CN106097335B (zh) * 2016-06-08 2019-01-25 安翰光电技术(武汉)有限公司 消化道病灶图像识别系统及识别方法
JP6811045B2 (ja) 2016-07-15 2021-01-13 株式会社三共 遊技機
US9589374B1 (en) * 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
CN106934799B (zh) * 2017-02-24 2019-09-03 安翰科技(武汉)股份有限公司 胶囊内窥镜图像辅助阅片系统及方法
SG11201911791RA (en) * 2017-06-09 2020-01-30 Ai Medical Service Inc A disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012165505A1 (ja) * 2011-06-02 2012-12-06 オリンパス株式会社 蛍光観察装置
WO2016185617A1 (ja) * 2015-05-21 2016-11-24 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2017017722A1 (ja) * 2015-07-24 2017-02-02 オリンパス株式会社 処理装置、処理方法及びプログラム
WO2017042812A2 (en) * 2015-09-10 2017-03-16 Magentiq Eye Ltd. A system and method for detection of suspicious tissue regions in an endoscopic procedure
WO2017104192A1 (ja) * 2015-12-17 2017-06-22 オリンパス株式会社 医用観察システム
WO2017175282A1 (ja) * 2016-04-04 2017-10-12 オリンパス株式会社 学習方法、画像認識装置およびプログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021240656A1 (ja) * 2020-05-26 2021-12-02 日本電気株式会社 画像処理装置、制御方法及び記憶媒体
KR20220006292A (ko) * 2020-07-08 2022-01-17 주식회사 메가젠임플란트 학습 데이터 생성장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체
KR102417531B1 (ko) * 2020-07-08 2022-07-06 주식회사 메가젠임플란트 학습 데이터 생성장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체
WO2022010106A1 (ko) * 2020-07-08 2022-01-13 주식회사 메가젠임플란트 학습 데이터 생성장치 및 그 장치의 구동방법, 그리고 컴퓨터 판독가능 기록매체
KR102222547B1 (ko) * 2020-07-15 2021-03-04 주식회사 웨이센 인공지능 기반의 대장내시경 영상 분석 방법
WO2022035119A1 (ko) * 2020-08-10 2022-02-17 주식회사 웨이센 인공지능 기반의 위내시경 영상 분석 방법
KR102255311B1 (ko) * 2020-08-10 2021-05-24 주식회사 웨이센 인공지능 기반의 위내시경 영상 분석 방법
KR102262684B1 (ko) * 2020-11-13 2021-06-09 주식회사 웨이센 영상 수신 장치의 인공지능 기반의 영상 처리 방법
WO2022149836A1 (ko) * 2021-01-11 2022-07-14 한림대학교 산학협력단 실시간 영상을 통해 획득되는 병변 판단 시스템의 제어 방법, 장치 및 프로그램
US11935239B2 (en) 2021-01-11 2024-03-19 Industry Academic Cooperation Foundation, Hallym University Control method, apparatus and program for system for determining lesion obtained via real-time image
WO2022208615A1 (ja) * 2021-03-29 2022-10-06 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体
JP7142754B1 (ja) * 2021-07-16 2022-09-27 ナショナル チュン チェン ユニバーシティ 畳み込みニューラルネットワークを使用して食道癌の画像を検出する方法
JP7449004B2 (ja) 2022-03-04 2024-03-13 ナショナル チュン チェン ユニバーシティ 周波数帯域を用いたハイパースペクトルによる物体画像の検出方法

Also Published As

Publication number Publication date
TW201922174A (zh) 2019-06-16
EP3705025A4 (en) 2021-09-08
US11633084B2 (en) 2023-04-25
JP6657480B2 (ja) 2020-03-04
CN111655116A (zh) 2020-09-11
JP7335552B2 (ja) 2023-08-30
US20200337537A1 (en) 2020-10-29
BR112020008774A2 (pt) 2020-12-22
SG11202003973VA (en) 2020-05-28
WO2019088121A1 (ja) 2019-05-09
EP3705025A1 (en) 2020-09-09
JPWO2019088121A1 (ja) 2019-11-14
KR20200106028A (ko) 2020-09-10

Similar Documents

Publication Publication Date Title
JP6657480B2 (ja) 画像診断支援装置、画像診断支援装置の作動方法および画像診断支援プログラム
Cai et al. Using a deep learning system in endoscopy for screening of early esophageal squamous cell carcinoma (with video)
JP6875709B2 (ja) 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
Horie et al. Diagnostic outcomes of esophageal cancer by artificial intelligence using convolutional neural networks
KR102210806B1 (ko) 위 내시경 이미지의 딥러닝을 이용하여 위 병변을 진단하는 장치 및 방법
JP7017198B2 (ja) 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
WO2020105699A9 (ja) 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
TW202006742A (zh) 藉由消化器官之內視鏡影像之疾病的診斷支援方法、診斷支援系統、診斷支援程式及記憶此診斷支援程式之電腦可讀取之記錄媒體
JP7218432B2 (ja) リアルタイムに取得される胃内視鏡イメージに基づいて胃病変を診断する内視鏡装置及び方法
CN110189303B (zh) 一种基于深度学习和图像增强的nbi图像处理方法及其应用
WO2021054477A2 (ja) 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
US20220296081A1 (en) Method for real-time detection of objects, structures or patterns in a video, an associated system and an associated computer readable medium
WO2021220822A1 (ja) 画像診断装置、画像診断方法、画像診断プログラムおよび学習済みモデル
CN109635871A (zh) 一种基于多特征融合的胶囊内窥镜图像分类方法
Suzuki et al. Artificial intelligence for cancer detection of the upper gastrointestinal tract
CN116745861A (zh) 通过实时影像获得的病变判断系统的控制方法、装置及程序
Liedlgruber et al. A summary of research targeted at computer-aided decision support in endoscopy of the gastrointestinal tract
TWI820624B (zh) 基於語義分割於影像辨識之方法
CN114581408A (zh) 一种基于yolov5的胃镜息肉检测方法
US20230162356A1 (en) Diagnostic imaging device, diagnostic imaging method, diagnostic imaging program, and learned model
JP2023079866A (ja) 超拡大内視鏡による胃癌の検査方法、診断支援方法、診断支援システム、診断支援プログラム、学習済みモデル及び画像診断支援装置
TWM620109U (zh) 輔助判斷系統

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20200318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230801

R150 Certificate of patent or registration of utility model

Ref document number: 7335552

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150