JP2020089712A - 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム - Google Patents

情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2020089712A
JP2020089712A JP2019100649A JP2019100649A JP2020089712A JP 2020089712 A JP2020089712 A JP 2020089712A JP 2019100649 A JP2019100649 A JP 2019100649A JP 2019100649 A JP2019100649 A JP 2019100649A JP 2020089712 A JP2020089712 A JP 2020089712A
Authority
JP
Japan
Prior art keywords
endoscopic image
prediction
model
diagnostic
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019100649A
Other languages
English (en)
Other versions
JP2020089712A5 (ja
JP6872581B2 (ja
Inventor
貴雄 牧野
Takao Makino
貴雄 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to CN202410051899.3A priority Critical patent/CN117814732A/zh
Priority to US17/252,942 priority patent/US20210407077A1/en
Priority to DE112019006011.2T priority patent/DE112019006011T5/de
Priority to PCT/JP2019/044578 priority patent/WO2020116115A1/ja
Priority to CN201980043891.XA priority patent/CN112399816B/zh
Publication of JP2020089712A publication Critical patent/JP2020089712A/ja
Publication of JP2020089712A5 publication Critical patent/JP2020089712A5/ja
Application granted granted Critical
Publication of JP6872581B2 publication Critical patent/JP6872581B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】疾病の診断に関する判定結果とともに判定に寄与した領域を提示する情報処理装置等を提供すること。【解決手段】情報処理装置は、内視鏡画像49を取得する画像取得部と、内視鏡画像49が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデル61に、前記画像取得部が取得した内視鏡画像49を入力して、出力される診断基準予測を取得する第1取得部と、前記内視鏡画像49から、前記第1取得部が取得した診断基準予測に影響を及ぼした領域を抽出する抽出部66と、前記第1取得部が取得した診断基準予測と、前記抽出部66が抽出した領域を示す指標781と、前記内視鏡画像に基づいて取得した前記疾病の状態に関する診断予測とを関連づけて出力する出力部とを備える。【選択図】図34

Description

本発明は、情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラムに関する。
内視鏡画像等のテクスチャ解析を行ない、病理診断に対応した分類を行なう画像処理装置が提案されている。このような診断支援技術を利用することにより、高度に専門的な知識と経験を有しない医師であっても、速やかに診断を行なえる。
特開2017−70609号公報
しかしながら、特許文献1の画像処理装置による分類はユーザにとってはブラックボックスである。したがって、出力された分類について、ユーザが分類の理由を理解し、納得できるとは限らない。
たとえば、潰瘍性大腸炎(UC:Ulcerative Colitis)においては、同一の内視鏡画像を見た専門医同士の間で、判断が分かれる場合があることが知られている。このような疾病である場合、診断支援技術による判定結果について、ユーザである医師が納得できない可能性がある。
一つの側面では、疾病の診断に関する判定結果とともに判定に寄与した領域を提示する情報処理装置等を提供することを目的とする。
情報処理装置は、内視鏡画像を取得する画像取得部と、内視鏡画像が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデルに、前記画像取得部が取得した内視鏡画像を入力して、出力される診断基準予測を取得する第1取得部と、前記内視鏡画像から、前記第1取得部が取得した診断基準予測に影響を及ぼした領域を抽出する抽出部と、前記第1取得部が取得した診断基準予測と、前記抽出部が抽出した領域を示す指標と、前記内視鏡画像に基づいて取得した前記疾病の状態に関する診断予測とを関連づけて出力する出力部とを備える。
疾病の診断に関する判定結果とともに判定に寄与した領域を提示する情報処理装置等を提供できる。
診断支援システムの概要を説明する説明図である。 診断支援システムの構成を説明する説明図である。 第1スコア学習モデルの構成を説明する説明図である。 第2モデルの構成を説明する説明図である。 診断支援システムの動作を模式的に説明するタイムチャートである。 プログラムの処理の流れを説明するフローチャートである。 第1変形例の診断支援システムの概要を説明する説明図である。 第2変形例の画面表示を説明する説明図である。 第3変形例の画面表示を説明する説明図である。 第4変形例の動作を模式的に説明するタイムチャートである。 モデルを生成する処理の概要を説明する説明図である。 モデル生成システムの構成を説明する説明図である。 教師データDBのレコードレイアウトを説明する説明図である。 教師データ入力画面を説明する説明図である。 教師データ入力画面を説明する説明図である。 学習モデルを生成するプログラムの処理の流れを説明するフローチャートである。 学習モデルを更新するプログラムの処理の流れを説明するフローチャートである。 教師データを収集するプログラムの処理の流れを説明するフローチャートである。 実施の形態3の診断支援システムの概要を説明する説明図である。 第2モデルから取得される特徴量を説明する説明図である。 特徴量とスコアとの変換を説明する説明図である。 特徴量DBのレコードレイアウトを説明する説明図である。 変換器を作成するプログラムの処理の流れを説明するフローチャートである。 実施の形態3の内視鏡検査時のプログラムの処理の流れを説明するフローチャートである。 実施の形態4の診断支援システムの概要を説明する説明図である。 実施の形態4の内視鏡画像とスコアとの変換を説明する説明図である。 実施の形態4の変換器を作成するプログラムの処理の流れを説明するフローチャートである。 実施の形態4の内視鏡検査時のプログラムの処理の流れを説明するフローチャートである。 実施の形態5の診断支援システムの概要を説明する説明図である。 実施の形態6の第1スコア学習モデルの構成を説明する説明図である。 実施の形態6の画面表示を説明する説明図である。 実施の形態7の画面表示を説明する説明図である。 実施の形態8の診断支援システムの概要を説明する説明図である。 実施の形態9の診断支援システムの概要を説明する説明図である。 第1モデルの構成を説明する説明図である。 抽出部の構成を説明する説明図である。 実施の形態9のプログラムの処理の流れを説明するフローチャートである。 注目領域抽出のサブルーチンの処理の流れを説明するフローチャートである。 実施の形態9の第1変形例の画面表示を説明する説明図である。 実施の形態9の第2変形例の画面表示を説明する説明図である。 実施の形態9の第3変形例の画面表示を説明する説明図である。 実施の形態10の注目領域抽出のサブルーチンの処理の流れを説明するフローチャートである。 実施の形態11の情報処理装置の機能ブロック図である。 実施の形態12の診断支援システムの構成を説明する説明図である。
[実施の形態1]
本実施の形態においては、潰瘍性大腸炎の診断を支援する診断支援システム10を例にして説明する。潰瘍性大腸炎は、大腸の粘膜に炎症が生じる炎症性腸疾患の一つである。患部は直腸から大腸の全周にわたって発生し、口側に向けて進行することが知られている。
症状が強く現れる活動期と、症状が治まる寛解期とを繰り返す場合があること、および、炎症が継続する場合には大腸がんの発症リスクが高くなること等から、発症後は定期的な大腸内視鏡検査による経過観察が推奨されている。
医師は、大腸内視鏡の先端をたとえば盲腸まで挿入した後に、抜去しながら内視鏡画像を観察する。患部、すなわち炎症が発生している部分では、内視鏡画像全体に炎症が拡がってみえる。
WHO(World Hearth Organization)等の公的機関、医学会、および各医療機関等で、様々な疾病を診断する際に使用する診断基準がそれぞれ定められている。たとえば潰瘍性大腸炎では、患部の赤みの程度、血管の見え方を意味する血管透見の程度、および、潰瘍の程度等の複数の項目が診断基準に挙げられている。
医師は、診断基準の各項目を検討した上で、総合的に判断して内視鏡14により観察中の部位を診断する。診断は、観察中の部位が潰瘍性大腸炎の患部であるか否かの判断、および、患部である場合には重度であるか、軽度であるか等の重症度の判断を含む。熟練した医師は、大腸内視鏡を抜去しながら、診断基準の各項目を検討して、観察中の位置についての診断をリアルタイムで行なう。医師は、大腸内視鏡を抜去する過程の診断を総合して、潰瘍性大腸炎により炎症が生じている患部の範囲を判断する。
図1は、診断支援システム10の概要を説明する説明図である。内視鏡14(図2参照)を用いて撮影された内視鏡画像49は、第1モデル61および第2モデル62に入力される。第2モデル62は、内視鏡画像49が入力された場合に、潰瘍性大腸炎の状態に関する診断予測を出力する。図1に示す例では、正常、すなわち潰瘍性大腸炎の患部ではない確率が70パーセントであり、軽度の潰瘍性大腸炎である確率が20パーセントであるという診断予測が出力されている。第2モデル62の詳細については後述する。
第1モデル61は、第1スコア学習モデル611、第2スコア学習モデル612および第3スコア学習モデル613を含む。以下の説明において、第1スコア学習モデル611から第3スコア学習モデル613までを特に区別する必要がない場合には、単に第1モデル61と記載する場合がある。
第1スコア学習モデル611は、内視鏡画像49が入力された場合に、赤みの程度に関する評価を数値化した第1スコアの予測値を出力する。第2スコア学習モデル612は、内視鏡画像49が入力された場合に、血管透見の程度に関する評価を数値化した第2スコアの予測値を出力する。第3スコア学習モデル613は、内視鏡画像49が入力された場合に、潰瘍の程度に関する評価を数値化した第3スコアの予測値を出力する。
赤みの程度、血管透見の程度および潰瘍の程度は、医師が潰瘍性大腸炎の状態を診断する際に用いる診断基準に含まれる診断基準項目の例示である。第1スコアから第3スコアの予測値は、潰瘍性大腸炎の診断基準に関する診断基準予測の例示である。
図1に示す例では、第1スコアは10、第2スコアは50、第3スコアは5であるという予測値が出力されている。なお、第1モデル61は、易出血性の程度、および、分泌物付着の程度等の、潰瘍性大腸炎に関する様々な診断基準項目に関する評価を数値化したスコアの予測値を出力するスコア学習モデルを含んでも良い。第1モデル61の詳細については後述する。
第1モデル61および第2モデル62の出力が、それぞれ第1取得部および第2取得部に取得される。第1取得部および第2取得部が取得した出力に基づいて、図1の下部に示す画面が表示装置16(図2参照)に表示される。表示される画面は、内視鏡画像欄73、第1結果欄71、第1停止ボタン711、第2結果欄72および第2停止ボタン722を含む。
内視鏡画像欄73には、内視鏡14を用いて撮影された内視鏡画像49がリアルタイムで表示されている。第1結果欄71には、第1モデル61から出力された診断基準予測が一覧表示されている。第2結果欄72には第2モデル62から出力された診断予測が表示されている。
第1停止ボタン711は、第1モデル61の動作停止指示を受け付ける第1受付部の一例である。すなわち、第1停止ボタン711が選択された場合、第1モデル61を使用したスコアの予測値の出力が停止する。第2停止ボタン722は、第2モデル62の動作停止指示を受け付ける第2受付部の一例である。すなわち、第2停止ボタン722が選択された場合、第2モデル62を使用したスコアの予測値の出力が停止する。
医師は、第1結果欄71に表示された診断基準予測を参照することにより、第2結果欄72に表示された診断予測が診断基準に照らして妥当であるか否かの根拠を確認し、第1結果欄71に表示された診断予測を採用するか否かを判断する。
図2は、診断支援システム10の構成を説明する説明図である。診断支援システム10は、内視鏡14と、内視鏡用プロセッサ11と、情報処理装置20とを含む。情報処理装置20は、制御部21、主記憶装置22、補助記憶装置23、通信部24、表示装置I/F(Interface)26、入力装置I/F27およびバスを備える。
内視鏡14は、先端部に撮像素子141を有する長尺の挿入部142を備える。内視鏡14は、内視鏡コネクタ15を介して内視鏡用プロセッサ11に接続されている。内視鏡用プロセッサ11は、撮像素子141から映像信号を受信して各種の画像処理を行ない、医師による観察に適した内視鏡画像49を生成する。すなわち、内視鏡用プロセッサ11は、内視鏡14から取得した映像信号に基づいて内視鏡画像49を生成する画像生成部の機能を果たす。
制御部21は、本実施の形態のプログラムを実行する演算制御装置である。制御部21には、一または複数のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)またはマルチコアCPU等が使用される。制御部21は、バスを介して情報処理装置20を構成するハードウェア各部と接続されている。
主記憶装置22は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、制御部21が行なう処理の途中で必要な情報および制御部21で実行中のプログラムが一時的に保存される。
補助記憶装置23は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置23には、第1モデル61、第2モデル62、制御部21に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。前述のとおり、第1モデル61は、第1スコア学習モデル611、第2スコア学習モデル612および第3スコア学習モデル613を含む。なお、第1モデル61および第2モデル62は情報処理装置20に接続された外部の大容量記憶装置に記憶されていてもよい。
通信部24は、情報処理装置20とネットワークとの間のデータ通信を行なうインターフェイスである。表示装置I/F26は、情報処理装置20と表示装置16とを接続するインターフェイスである。表示装置16は、第1モデル61から取得された診断基準予測と、第2モデル62から取得された診断予測とを出力する出力部の一例である。
入力装置I/F27は、情報処理装置20とキーボード17等の入力装置とを接続するインターフェイスである。情報処理装置20は、汎用のパソコン、タブレット、またはスマートフォン等の情報機器である。
図3は、第1スコア学習モデル611の構成を説明する説明図である。第1スコア学習モデル611は、内視鏡画像49が入力された場合に、第1スコアの予測値を出力する。
第1スコアは、熟練した医師がその内視鏡画像49を見た場合に、潰瘍性大腸炎の診断基準に基づいて判断した赤みの程度を数値化した値である。たとえば、「赤みなし」を0点、「強度の発赤」を100点のように100点満点で医師がスコアを定める。
なお、医師は「赤みなし」、「軽度」、「中度」、「重度」のように4段階で判断し、「赤みなし」を0点、「軽度」を1点、「中度」を2点、「重度」を3点のようにスコア化しても良い。スコアは、「重度」の方が小さい数値になるように定めてもよい。
本実施の形態の第1スコア学習モデル611は、たとえばCNN(Convolutional Neural Network)を用いた機械学習により生成された学習モデルである。第1スコア学習モデル611は、入力層531、中間層532、出力層533、および、図示を省略する畳み込み層とプーリング層とを有するニューラルネットワークモデル53により構成される。第1スコア学習モデル611の生成方法については、後述する。
第1スコア学習モデル611に、内視鏡画像49が入力される。入力された画像は、畳み込み層およびプーリング層により繰り返し処理が行なわれた後に、全結合層に入力される。出力層533に、第1スコアの予測値が出力される。
同様に、第2スコアは、熟練した専門医が内視鏡画像49を見た場合に、潰瘍性大腸炎の診断基準に基づいて血管透見の程度を判断した数値である。第3スコアは、熟練した専門医が内視鏡画像49を見た場合に、潰瘍性大腸炎の診断基準に基づいて潰瘍の程度を判断した数値である。第2スコア学習モデル612および第3スコア学習モデル613の構成は、第1スコア学習モデル611と同様であるため、図示および説明を省略する。
図4は、第2モデル62の構成を説明する説明図である。第2モデル62は、内視鏡画像49が入力された場合に、潰瘍性大腸炎の診断予測を出力する。診断予測は、熟練した専門医がその内視鏡画像49を見た場合に、潰瘍性大腸炎についてどのように診断するかに関する予測である。
本実施の形態の第2モデル62は、たとえばCNNを用いた機械学習により生成された学習モデルである。第2モデル62は、入力層531、中間層532、出力層533、および、図示を省略する畳み込み層とプーリング層とを有するニューラルネットワークモデル53により構成される。第2モデル62の生成方法については、後述する。
第2モデル62に、内視鏡画像49が入力される。入力された画像は、畳み込み層およびプーリング層により繰り返し処理が行なわれた後に、全結合層に入力される。出力層533に、診断予測が出力される。
図4においては、出力層533は内視鏡画像49を熟練した専門医が見た場合の判断が、重度の潰瘍性大腸炎である確率、中度の潰瘍性大腸炎である確率、軽度の潰瘍性大腸炎である確率および、正常、すなわち潰瘍性大腸炎の患部ではない確率をそれぞれ出力する4個の出力ノードを有する。
図5は、診断支援システム10の動作を模式的に説明するタイムチャートである。図5Aは、撮像素子141による撮影のタイミングを示す。図5Bは、内視鏡用プロセッサ11内の画像処理により、内視鏡画像49を生成するタイミングを示す。図5Cは、内視鏡画像49に基づいて第1モデル61および第2モデル62が予測を出力するタイミングを示す。図5Dは、表示装置16への表示のタイミングを示す。図5Aから図5Dまでの横軸は、いずれも時間を示す。
時刻t0に撮像素子141により「a」のフレームが撮影される。映像信号が内視鏡用プロセッサ11に伝送される。内視鏡用プロセッサ11が画像処理を行ない、時刻t1に「a」の内視鏡画像49を生成する。制御部21は、内視鏡用プロセッサ11が生成した内視鏡画像49を取得して、第1モデル61および第2モデル62に入力する。時刻t2に、制御部21は第1モデル61および第2モデル62からそれぞれ出力される予測を取得する。
時刻t3に、制御部21は「a」のフレームの内視鏡画像49および予測を表示装置16に出力する。以上で、撮像素子141が撮影した1フレーム分の画像の処理が終了する。同様に、時刻t6に撮像素子141により「b」のフレームが撮影される。時刻t7に「b」の内視鏡画像49が生成される。制御部21は、時刻t8に予測を取得し、時刻t9に「b」のフレームの内視鏡画像49および予測を表示装置16に出力する。「c」のフレーム以降の動作も同様であるため、説明を省略する。以上により、内視鏡画像49と、第1モデル61および第2モデル62による予測とが同期して表示される。
図6は、プログラムの処理の流れを説明するフローチャートである。図6を使用して説明するプログラムは、制御部21が内視鏡用プロセッサ11から1フレームの内視鏡画像49を取得するたびに実行される。
制御部21は、内視鏡用プロセッサ11から内視鏡画像49を取得する(ステップS501)。制御部21は、取得した内視鏡画像49を第2モデル62に入力して、出力層533から出力される診断予測を取得する(ステップS502)。制御部21は、取得した内視鏡画像49を、第1モデル61を構成するスコア学習モデルの一つに入力して、出力層533から出力されるスコアの予測値を取得する(ステップS503)。
制御部21は、第1モデル61を構成するスコア学習モデルの処理を終了したか否かを判定する(ステップS504)。終了していないと判定した場合(ステップS504でNO)、制御部21は、ステップS503に戻る。
終了したと判定した場合(ステップS504でYES)、制御部21は、図1の下部を使用して説明した画像を生成して、表示装置16に出力する(ステップS505)。制御部21は、処理を終了する。
本実施の形態によると、第1モデル61から出力された診断基準予測と、第2モデル62から出力された診断予測とを、内視鏡画像49とともに表示する診断支援システム10を提供できる。医師は、内視鏡画像49を観察しながら、熟練した専門医が同じ内視鏡画像49を見た場合の診断を予測した診断予測、および、診断基準予測を確認できる。
医師は、第1結果欄71に表示された診断基準予測を参照することにより、第2結果欄72に表示された診断予測が診断基準に照らして妥当であるか否かの根拠を確認し、第1結果欄71に表示された診断予測を採用するか否かを判断できる。
第2結果欄72には、最も確率の高い項目と、その確率のみが表示されても良い。表示する文字数を減らすことにより、文字サイズを大きくできる。医師は、内視鏡画像欄73を注視しながら、第2結果欄72の表示の変化を感知できる。
医師は、第1停止ボタン711を選択することにより、スコアの予想および表示を停止できる。医師は、第2停止ボタン722を選択することにより、診断予測および診断予測の表示を停止できる。医師は、第1停止ボタン711または第2停止ボタン722を再度選択することにより、診断予測および診断基準予測の表示を再開できる。
第1停止ボタン711および第2停止ボタン722は、キーボード17、マウス、タッチパネルまたは音声入力等の任意の入力装置から操作可能である。第1停止ボタン711および第2停止ボタン722は、内視鏡14の操作部に設けられた制御ボタン等を用いて操作可能であっても良い。
たとえば、ポリープの切除またはEMR(Endoscopic Mucosal Resection:内視鏡的粘膜切除術)等の内視鏡下処置を行なう場合には、撮像素子141による撮影から表示装置16への表示までのタイムラグは、できる限り短いことが望ましい。医師は、第1停止ボタン711および第2停止ボタン722を選択して診断予測および診断基準予測を停止することにより、タイムラグを短くできる。
なお、第1モデル61を構成する各スコア学習モデルを用いた診断基準予測と、第2モデル62を用いた診断予測とは、並列処理により実施されても良い。並列処理を用いることにより、表示装置16への表示のリアルタイム性を向上させることができる。
本実施の形態によると、たとえば潰瘍性大腸炎等の所定の疾病に関する判定結果とともに判定理由を提示する情報処理装置20等を提供できる。医師は、第2モデル62により出力される疾病の診断確率と、第1モデル61により出力される診断基準に関するスコアとの両方を見ることにより、診断基準に基づく正しい結果が出力されている否かを確認できる。
仮に、第2モデル62による出力と、第1モデル61により出力との間に齟齬がある場合、医師は潰瘍性大腸炎以外の疾病を疑い、指導医への相談、または、必要な検査の追加等の対処を行なえる。以上により、稀な疾病の見落とし等を避けることができる。
第1モデル61を用いた診断基準予測と、第2モデル62を用いた診断予測とは、別々のハードウェアにより実行されても良い。
内視鏡画像49は、電子カルテシステム等に記録された画像であっても良い。たとえば経過観察時に撮影されたそれぞれの画像を第1モデル61に入力することにより、各スコアの時間的変化を比較できる診断支援システム10を提供できる。
[第1変形例]
図7は、第1変形例の診断支援システム10の概要を説明する説明図である。図2との相違点以外は説明を省略する。表示装置16は、第1表示装置161と第2表示装置162とを含む。第1表示装置161は、表示装置I/F26に接続されている。第2表示装置162は、内視鏡用プロセッサ11に接続されている。第1表示装置161と第2表示装置162とは、隣接して配置されていることが望ましい。
第1表示装置161には、内視鏡用プロセッサ11で生成された内視鏡画像49がリアルタイムで表示される。第2表示装置162には、制御部21が取得した診断予測および診断基準予測が表示される。
本変形例によると、内視鏡画像49の表示のタイムラグを削減しながら、診断予測および診断基準予測を表示する診断支援システム10を提供できる。
診断支援システム10は、3個以上の表示装置16を有しても良い。たとえば、内視鏡画像49と、第1結果欄71と第2結果欄72とを、それぞれ異なる表示装置16に表示しても良い。
[第2変形例]
図8は、第2変形例の画面表示を説明する説明図である。図1の下部との相違点以外は説明を省略する。本変形例においては、CPU21は、第1結果欄71および第2結果欄72をグラフ形式で出力する。
第1結果欄71には、3つの診断基準予測が三軸のグラフ形式で表示されている。図8において上向きの軸は、第1スコアすなわち赤みに関するスコアの予測値を示す。右下向きの軸は、第2スコア、すなわち血管透見に関するスコアの予測値を示す。左下向きの軸は、第3スコア、すなわち潰瘍に関するスコアの予測値を示す。
第1スコア、第2スコアおよび第3スコアの予測値が、内側の三角形で表示される。第2結果欄72には、第2モデル62から出力された診断予測が棒グラフにより表示されている。本変形例によると、医師は、三角形および棒グラフを見ることにより診断基準予測を直感的に把握できる。
[第3変形例]
図9は、第3変形例の画面表示を説明する説明図である。図9は、クローン病の診断を支援する診断支援システム10が表示する画面である。クローン病も、潰瘍性大腸炎と同様に炎症性腸疾患の一種である。図9では、第1スコアは腸管の長さ方向に延びる縦走潰瘍の程度を、第2スコアは密集した粘膜隆起である敷石像の程度を、第3スコアは、赤い斑点のアフタの程度をそれぞれ示す。
診断支援システム10が診断を支援する疾病は、潰瘍性大腸炎およびクローン病に限定しない。適切な第1モデル61および第2モデル62を作成可能な任意の疾病の診断を支援する診断支援システム10を提供できる。ユーザが、内視鏡検査中にどの疾病の診断を支援するかを切替可能であっても良い。複数の表示装置16に、それぞれの疾病の診断を支援する情報を表示しても良い。
[第4変形例]
図10は、第4変形例の動作を模式的に説明するタイムチャートである。図5と共通する部分については、説明を省略する。図10は、第1モデル61および第2モデル62を用いた処理に長い時間を要する場合のタイムチャートの例を示す。
時刻t0に撮像素子141により「a」のフレームが撮影される。内視鏡用プロセッサ11が画像処理を行ない、時刻t1に「a」の内視鏡画像49を生成する。制御部21は、内視鏡用プロセッサ11が生成した内視鏡画像49を取得して、第1モデル61および第2モデル62に入力する。時刻t2に、制御部21は表示装置16に「a」の内視鏡画像49を出力する。
時刻t6に撮像素子141により「b」のフレームが撮影される。内視鏡用プロセッサ11が画像処理を行ない、時刻t7に「b」の内視鏡画像49を生成する。「b」の内視鏡画像49は、第1モデル61および第2モデル62に入力されない。時刻t8に、制御部21は表示装置16に「b」の内視鏡画像49を出力する。
時刻t9に、制御部21は第1モデル61および第2モデル62からそれぞれ出力される「a」の内視鏡画像49に基づく予測を取得する。時刻t10に、制御部21は「a」の内視鏡画像49に基づく予測を表示装置16に出力する。時刻t12に、撮像素子141により「c」のフレームが撮影される。以後の処理は、時刻t0から時刻t10までと同様であるため、説明を省略する。以上により、内視鏡画像49と、第1モデル61および第2モデル62による予測とが同期して表示される。
本変形例によると、第1モデル61および第2モデル62に入力する内視鏡画像49を間引くことにより、第1モデル61および第2モデル62を使用した処理に時間を要する場合であっても、リアルタイムでの表示を実現できる。
[実施の形態2]
本実施の形態は、第1モデル61および第2モデル62を生成するモデル生成システム19に関する。実施の形態1と共通する部分については、説明を省略する。
図11は、モデルを生成する処理の概要を説明する説明図である。教師データDB64(図12参照)に、内視鏡画像49と、熟練した専門医等の有識者による判断結果とを関連づけた、複数組の教師データが記録されている。有識者による判断結果は、内視鏡画像49に基づく潰瘍性大腸炎の診断、第1スコア、第2スコアおよび第3スコアである。
内視鏡画像49と診断結果との組を教師データとした機械学習により、第2モデル62が生成される。内視鏡画像49と第1スコアとの組を教師データとした機械学習により、第1スコア学習モデル611が生成される。内視鏡画像49と第2スコアとの組を教師データとした機械学習により、第2スコア学習モデル612が生成される。内視鏡画像49と第3スコアとの組を教師データとした機械学習により、第3スコア学習モデル613が生成される。
図12は、モデル生成システム19の構成を説明する説明図である。モデル生成システム19は、サーバ30と、クライアント40とを含む。サーバ30は、制御部31、主記憶装置32、補助記憶装置33、通信部34およびバスを備える。クライアント40は、制御部41、主記憶装置42、補助記憶装置43、通信部44、表示部46、入力部47およびバスを備える。
制御部31は、本実施の形態のプログラムを実行する演算制御装置である。制御部31には、一または複数のCPU、マルチコアCPUまたはGPU等が使用される。制御部31は、バスを介してサーバ30を構成するハードウェア各部と接続されている。
主記憶装置32は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置32には、制御部31が行なう処理の途中で必要な情報および制御部31で実行中のプログラムが一時的に保存される。
補助記憶装置33は、SRAM、フラッシュメモリ、ハードディスクまたは磁気テープ等の記憶装置である。補助記憶装置33には、制御部31に実行させるプログラム、教師データDB64およびプログラムの実行に必要な各種データが保存される。さらに、制御部31により生成された第1モデル61および第2モデル62も、補助記憶装置33に保存される。なお、教師データDB64、第1モデル61および第2モデル62は、サーバ30に接続された外部の大容量記憶装置等に保存されていても良い。
サーバ30は、汎用のパソコン、タブレット、大型計算機、大型計算機上で動作する仮想マシン、クラウドコンピューティングシステム、または、量子コンピュータである。サーバ30は、分散処理を行なう複数のパソコン等であっても良い。
制御部41は、本実施の形態のプログラムを実行する演算制御装置である。制御部41は、本実施の形態のプログラムを実行する演算制御装置である。制御部41には、一または複数のCPUまたはマルチコアCPUまたはGPU等が使用される。制御部41は、バスを介してクライアント40を構成するハードウェア各部と接続されている。
主記憶装置42は、SRAM、DRAM、フラッシュメモリ等の記憶装置である。主記憶装置42には、制御部41が行なう処理の途中で必要な情報および制御部41で実行中のプログラムが一時的に保存される。
補助記憶装置43は、SRAM、フラッシュメモリまたはハードディスク等の記憶装置である。補助記憶装置43には、制御部41に実行させるプログラム、およびプログラムの実行に必要な各種データが保存される。
通信部44は、クライアント40とネットワークとの間のデータ通信を行なうインターフェイスである。表示部46は、たとえば液晶表示パネルまたは有機EL(Electro Luminescence)表示パネル等である。入力部47は、たとえばキーボード17およびマウス等である。クライアント40は、表示部46と入力部47とが積層されたタッチパネルを有しても良い。
クライアント40は、教師データを作成する専門医等が使用する、汎用のパソコン、タブレット、またはスマートフォン等の情報機器である。クライアント40は、制御部31による制御に基づいてユーザインターフェイスを実現する、いわゆるシンクライアントであってもよい。シンクライアントを用いる場合、クライアント40が行なう後述する処理の大部分は、制御部41の代わりに制御部31で実行される。
図13は、教師データDB64のレコードレイアウトを説明する説明図である。教師データDB64は、第1モデル61および第2モデル62の生成に用いる教師データを記録するDBである。教師データDB64は、部位フィールド、疾病フィールド、内視鏡画像フィールド、内視鏡所見フィールド、およびスコアフィールドを有する。スコアフィールドは、赤みフィールド、血管透見フィールドおよび潰瘍フィールドを有する。
部位フィールドには、内視鏡画像49が撮影された部位が記録されている。疾病フィールドには、教師データを作成する際に専門医等が判断を行なった疾病の名称が記録されている。内視鏡画像フィールドには、内視鏡画像49が記録されている。内視鏡所見フィールドには、内視鏡画像49を見て専門医等が判断した疾病の状態、すなわち内視鏡所見が記録されている。
赤みフィールドには、内視鏡画像49を見て専門医等が判断した、赤みに関する第1スコアが記録されている。血管透見フィールドには、内視鏡画像49を見て専門医等が判断した、血管透見に関する第2スコアが記録されている。潰瘍フィールドには、内視鏡画像49を見て専門医等が判断した、血管に関する第3スコアが記録されている。教師データDB64は、1枚の内視鏡画像49について1個のレコードを有する。
図14および図15は、教師データ入力画面を説明する説明図である。図14は、既存の第1モデル61および第2モデル62を使用せずに教師データを作成する場合に、制御部41が表示部46に表示する画面の例を示す。
図14に示す画面は、内視鏡画像欄73、第1入力欄81、第2入力欄82、次ボタン89、患者ID欄86、疾病名欄87およびモデルボタン88を含む。第1入力欄81は、第1スコア入力欄811、第2スコア入力欄812および第3スコア入力欄813を含む。図14においては、モデルボタン88は「モデル不使用」の状態に設定されている。
内視鏡画像欄73には内視鏡画像49が表示される。内視鏡画像49は、教師データを入力する専門医等が実施した内視鏡検査により撮影された画像であっても、サーバ30から配信された画像であっても良い。専門医等は、内視鏡画像49に基づいて疾病名欄87に表示された「潰瘍性大腸炎」に関する診断を行ない、第2入力欄82の左端に設けられたチェックボックスを選択する。
なお「不適切画像」は、たとえば残渣が多い、または、ブレがある等の事情により、診断に使用するには不適切であると、専門医等が判断したことを意味する。「不適切画像」であると判断された内視鏡画像49は、教師データDB64に記録されない。
専門医等は、内視鏡画像49に基づいて第1スコアから第3スコアを判断して、第1スコア入力欄811から第3スコア入力欄813にそれぞれ入力する。入力終了後、専門医等は次ボタン89を選択する。制御部41は、内視鏡画像49、第1入力欄81への入力および第2入力欄82への入力を、サーバ30に送信する。制御部31は、教師データDB64に新規レコードを追加して、内視鏡画像49、内視鏡所見および各スコアを記録する。
図15は、既存の第1モデル61および第2モデル62を参照して教師データを作成する場合に、制御部41が表示部46に表示する画面の例を示す。図15においては、モデルボタン88は「モデル使用中」の状態に設定されている。なお、既存の第1モデル61および第2モデル62が生成されていない場合には、モデルボタン88は「モデル使用中」の状態が選択されないように設定されている。
内視鏡画像49を第1モデル61および第2モデル62に入力した結果が、第1入力欄81および第2入力欄82に表示される。第2入力欄82には、最も確率の高い項目の左端のチェックボックスに、デフォルトでチェックが入った状態になっている。
専門医等は、内視鏡画像49に基づいて第1入力欄81の各スコアが正しいか否かを判断し、必要に応じてスコアを変更する。専門医等は、内視鏡画像49に基づいて第2入力欄82のチェックが正しいか否かを判断し、必要に応じてチェックボックスを選択しなおす。第1入力欄81および第2入力欄82を適切な状態にした後、専門医等は次ボタン89を選択する。以後の処理は、図14を使用して説明した、「モデル不使用」である場合と同様であるため、説明を省略する。
図16は、学習モデルを生成するプログラムの処理の流れを説明するフローチャートである。図16を使用して説明するプログラムは、第1モデル61を構成する各学習モデルおよび、第2モデル62の生成に使用される。
制御部31は、作成対象の学習モデルを選択する(ステップS522)。作成対象の学習モデルは、第1モデル61を構成する各学習モデルのいずれか一つ、または第2モデル62である。制御部31は、教師データDB64から必要なフィールドを抽出して、内視鏡画像49と出力データとのペアにより構成された教師データを作成する(ステップS523)。
たとえば、第1スコア学習モデル611を生成する場合には、出力データは赤みに関するスコアである。制御部31は、教師データDB64から内視鏡画像フィールドおよび赤みフィールドを抽出する。同様に、第2モデル62を生成する場合には、出力データは内視鏡所見である。制御部31は、教師データDB64から内視鏡画像フィールドおよび内視鏡所見フィールドを抽出する。
制御部31は、ステップS523で作成した教師データを、訓練データとテストデータとに分離する(ステップS524)。制御部31は、訓練データを使用し、誤差逆伝播法等を用いて中間層532のパラメータを調整することにより、教師あり機械学習を行ない、学習モデルを生成する(ステップS525)。
制御部31は、訓練データを用いて学習モデルの精度を検証する(ステップS526)。検証は、訓練データ中の内視鏡画像49を学習モデルに入力した場合に、出力が内視鏡画像49に対応する出力データと一致する確率を算出することにより行なわれる。
制御部31は、ステップS525で生成した学習モデルの精度が合格であるか否かを判定する(ステップS527)。合格であると判定した場合(ステップS527でYES)、制御部31は補助記憶装置33に学習モデルを記録する。(ステップS528)。
合格でないと判定した場合(ステップS527でNO)、制御部31は処理を終了するか否かを判定する(ステップS529)。たとえば、ステップS524からステップS529までの処理を所定の回数繰り返した場合に、制御部31は処理を終了すると判定する。処理を終了しないと判定した場合(ステップS529でNO)、制御部31はステップS524に戻る。
処理を終了すると判定した場合(ステップS529でYES)、または、ステップS528の終了後、制御部31は、処理を終了するか否かを判定する(ステップS531)。処理を終了しないと判定した場合(ステップS531でNO)、制御部31はステップS522に戻る。処理を終了すると判定した場合(ステップS531でYES)、制御部31は処理を終了する。
なお、合格であると判定される学習モデルが生成されない場合には、教師データDB64に記録された各レコードの見直し、および、レコードの追加が行なわれた後に、図16を使用して説明したプログラムが再度実行される。
図16を使用して説明したプログラムで更新された第1モデル61および第2モデル62は、たとえば医薬品医療機器等法上の承認等の手続が終了した後に、ネットワークを介して、または、記録媒体を介して、情報処理装置20に配信される。
図17は、学習モデルを更新するプログラムの処理の流れを説明するフローチャートである。図17を使用して説明するプログラムは、教師データDB64に追加のレコードが記録された場合に適宜実行される。なお、追加の教師データは、教師データDB64とは別のデータベースに記録されても良い。
制御部31は、更新する対象の学習モデルを取得する(ステップS541)。制御部31は、追加の教師データを取得する(ステップS542)。具体的には、制御部31は、教師データDB64に追加されたレコードから、内視鏡画像フィールドに記録された内視鏡画像49と、ステップS541で取得した学習モデルに対応する出力データとを取得する。
制御部31は、内視鏡画像49を学習モデルの入力データに、内視鏡画像49に関連づけられた出力データを学習モデルの出力に設定する(ステップS543)。制御部31は、誤差逆伝播法により、学習モデルのパラメータを更新する(ステップS544)。制御部31は、更新されたパラメータを記録する(ステップS545)。
制御部31は、教師データDB64に追加されたレコードの処理を終了したか否かを判定する(ステップS546)。終了していないと判定した場合(ステップS546でNO)、制御部31はステップS542に戻る。終了したと判定した場合(ステップS546でYES)、制御部31は処理を終了する。
図17を使用して説明したプログラムで更新された第1モデル61および第2モデル62は、たとえば医薬品医療機器等法上の承認等の手続が終了した後に、ネットワークを介して、または、記録媒体を介して、情報処理装置20に配信される。以上により、第1モデル61および第2モデル62が更新される。なお、第1モデル61および第2モデル62を構成する各学習モデルは、同時に更新されても、個別に更新されても良い。
図18は、教師データを収集するプログラムの処理の流れを説明するフローチャートである。制御部41は、図示を省略する電子カルテシステムまたは内視鏡用プロセッサ11に搭載されたハードディスク等から、内視鏡画像49を取得する(ステップS551)。制御部41は、図14を使用して説明したモデルボタン88を介してモデルを使用する旨が選択されているか否かを判定する(ステップS552)。
モデルを使用する旨が選択されていないと判定した場合(ステップS552でNO)、制御部41は図14を使用して説明した画面を表示部46に表示する(ステップS553)。モデルを使用する旨が選択されていると判定した場合(ステップS552でYES)、制御部41はサーバ30から第1モデル61および第2モデル62を取得する(ステップS561)。
なお、制御部41は取得した第1モデル61および第2モデル62を補助記憶装置43に一時的に記憶しても良い。このようにすることにより、制御部41は2回目以降のステップS561の処理を省略できる。
制御部41は、ステップS551で取得した内視鏡画像49をステップS561で取得した第1モデル61および第2モデル62にそれぞれ入力して、出力層533から出力される推定結果を取得する(ステップS562)。制御部41は、図15を使用して説明した画面を表示部46に表示する(ステップS563)。
ステップS553またはステップS563の終了後、制御部41は入力部47を介してユーザによる判断結果の入力を取得する(ステップS564)。制御部41は、第2入力欄82において「不適切画像」が選択されているか否かを判定する(ステップS565)。「不適切画像」が選択されていると判定した場合(ステップS565でYES)、制御部41は処理を終了する。
「不適切画像」が選択されていないと判定した場合(ステップS565でNO)、制御部41は内視鏡画像49と、ユーザによる入力結果とを関連づけた教師レコードをサーバ30に送信する(ステップS566)。なお、教師レコードは、USB(Universal Serial Bus)メモリ等の可搬型記録媒体を介して教師データDB64に記録されても良い。
制御部31は、教師データDB64に新規レコードを作成して、受信した教師レコードを記録する。なお、たとえば複数の有識者が同じ内視鏡画像49について判断を行ない、所定の数の有識者による判断が一致した場合に、教師データDB64に記録されても良い。このようにすることにより、教師データDB64の精度を高めることができる。
本実施の形態によると、教師データを収集、および、第1モデル61および第2モデル62の生成と更新とを行なえる。
[実施の形態3]
本実施の形態は、第2モデル62の中間層532から抽出した特徴量に基づいて、診断基準に沿ったスコアを出力する診断支援システム10に関する。実施の形態1または実施の形態2と共通する部分については、説明を省略する。
図19は、実施の形態3の診断支援システム10の概要を説明する説明図である。内視鏡14を用いて撮影された内視鏡画像49は、第2モデル62に入力される。第2モデル62は、内視鏡画像49が入力された場合に、潰瘍性大腸炎の診断予測を出力する。後述するように、第2モデル62の中間層532を構成するノードから、第1特徴量651、第2特徴量652および第3特徴量653等の特徴量65が取得される。
第1モデル61は、第1変換器631、第2変換器632および第3変換器633を含む。第1特徴量651が、第1変換器631により赤みの程度を示す第1スコアの予測値に変換される。第2特徴量652が、第2変換器632により血管透見の程度を示す第2スコアの予測値に変換される。第3特徴量653が、第3変換器633により潰瘍の程度を示す第3スコアの予測値に変換される。以後の説明において第1変換器631から第3変換器633までを特に区別しない場合には、変換器63と記載する。
第1モデル61および第2モデル62の出力が、それぞれ第1取得部および第2取得部に取得される。第1取得部および第2取得部が取得した出力に基づいて、図19の下部に示す画面が表示装置16に表示される。表示される画面は、実施の形態1で説明した画面と同様であるため、説明を省略する。
図20は、第2モデル62から取得される特徴量を説明する説明図である。中間層532は、相互に連結された複数のノードを含む。第2モデル62に内視鏡画像49が入力された場合、それぞれのノードには内視鏡画像49の種々の特徴量が現れる。例として、5個のノードに現れるそれぞれの特徴量を、特徴量A65Aから特徴量E65Eまでの記号で示す。
特徴量は、畳み込み層およびプーリング層により繰り返し処理が行なわれた後、全結合層に入力される直前のノードから取得されても、全結合層に含まれるノードから取得されても良い。
図21は、特徴量とスコアとの変換を説明する説明図である。図21の上部に、教師データDB64に含まれる教師データを模式的に示す。教師データDB64には、内視鏡画像49と、専門医等の有識者による判断結果とを関連づけた教師データが記録されている。教師データDB64のレコードレイアウトは、図13を使用して説明した実施の形態1の教師データDB64と同様であるため、説明を省略する。
前述のとおり、内視鏡画像49が第2モデル62に入力されて、特徴量A65A等の複数の特徴量が取得される。取得した特徴量と、内視鏡画像49に関連づけられた第1スコアから第3スコアとの間で相関解析が行なわれて、それぞれのスコアに対して相関の高い特徴量が選択される。図21においては、第1スコアと特徴量A65Aとの相関、第2スコアと特徴量C65Cとの相関、および、第3スコアと特徴量D65Dとの相関が高い場合を示す。
第1スコアと特徴量A65Aとの回帰分析を行なうことにより第1変換器631が求められる。同様に、第2スコアと特徴量C65Cとの回帰分析により第2変換器632が、第3スコアと特徴量D65Dとの回帰分析により第3変換器633が、それぞれ求められる。回帰分析には線形回帰が用いられても、非線形回帰が用いられても良い。回帰分析は、ニューラルネットワークを用いて行なわれても良い。
図22は、特徴量DBのレコードレイアウトを説明する説明図である。特徴量DBは、教師データと、内視鏡画像49から取得した特徴量とを関連づけて記録するDBである。特徴量DBは、部位フィールド、疾病フィールド、内視鏡画像フィールド、内視鏡所見フィールド、スコアフィールドおよび特徴量フィールドを有する。スコアフィールドは、赤みフィールド、血管透見フィールドおよび潰瘍フィールドを有する。特徴量フィールドは、Aフィールド、Bフィールド等の多数のサブフィールドを有する。
部位フィールドには、内視鏡画像49が撮影された部位が記録されている。疾病フィールドには、教師データを作成する際に専門医等が判断を行なった疾病の名称が記録されている。内視鏡画像フィールドには、内視鏡画像49が記録されている。内視鏡所見フィールドには、内視鏡画像49を見て専門医等が判断した疾病の状態、すなわち内視鏡所見が記録されている。
赤みフィールドには、内視鏡画像49を見て専門医等が判断した、赤みに関する第1スコアが記録されている。血管透見フィールドには、内視鏡画像49を見て専門医等が判断した、血管透見に関する第2スコアが記録されている。潰瘍フィールドには、内視鏡画像49を見て専門医等が判断した、潰瘍に関する第3スコアが記録されている。特徴量フィールドの各サブフィールドには、中間層532の各ノードから取得された特徴量A64A等の特徴量が記録されている。
特徴量DBは、1枚の内視鏡画像49について1個のレコードを有する。特徴量DBは、補助記憶装置33に記憶される。特徴量DBは、サーバ30に接続された外部の大容量記憶装置等に保存されていても良い。
図23は、変換器63を作成するプログラムの処理の流れを説明するフローチャートである。制御部31は、教師データDB64から1個のレコードを選択する(ステップS571)。制御部31は、内視鏡画像フィールドに記録された内視鏡画像49を第2モデル62に入力し、中間層532の各ノードから特徴量を取得する(ステップS572)。制御部31は、特徴量DBに新規レコードを作成し、ステップS571で取得したレコードに記録されているデータと、ステップS572で取得した特徴量とを記録する(ステップS573)。
制御部31は、処理を終了するか否かを判定する(ステップS574)。たとえば、所定の数の教師データレコードの処理を終了した場合に、制御部31は処理を終了すると判定する。処理を終了しないと判定した場合(ステップS574でNO)、制御部31はステップS571に戻る。
処理を終了すると判定した場合(ステップS574でYES)、制御部31は特徴量DBのスコアフィールドから一つのサブフィールドを選択する(ステップS575)。制御部31は、特徴量DBの特徴量フィールドから一つのサブフィールドを選択する(ステップS576)。
制御部31は、ステップS575で選択したスコアと、ステップS576で選択した特徴量との間の相関解析を行ない、相関係数を算出する(ステップS577)。制御部31は、算出した相関係数を主記憶装置32または補助記憶装置33に一時的に記録する(ステップS578)。
制御部31は、処理を終了するか否かを判定する(ステップS579)。たとえば、制御部31は、スコアと特徴量とのすべての組合せの相関解析が完了した場合に、処理を終了すると判定する。制御部31は、ステップS577で算出した相関係数が所定の閾値以上である場合に、処理を終了すると判定しても良い。
処理を終了しないと判定した場合(ステップS579でNO)、制御部31はステップS576に戻る。処理を終了すると判定した場合(ステップS579でYES)、制御部31はステップS575で選択したスコアと最も相関の高い特徴量を選択する(ステップS580)。
制御部31は、ステップS575で選択したスコアを目的変数、ステップS580で選択した特徴量を説明変数にした回帰分析を行ない、特徴量をスコアに変換する変換器63を特定するパラメータを算出する(ステップS581)。たとえば、ステップS575で選択したスコアが、第1スコアである場合、ステップS581で特定された変換器63は第1変換器631であり、ステップS575で選択したスコアが、第2スコアである場合、ステップS581で特定された変換器63は第2変換器632である。制御部31は、算出した変換器63を補助記憶装置33に記憶する(ステップS582)。
制御部31は、特徴量DBのすべてのスコアフィールドの処理を終了したか否かを判定する(ステップS583)。終了していないと判定した場合(ステップS583でNO)、制御部31はステップS575に戻る。終了したと判定した場合(ステップS583でYES)、制御部31は処理を終了する。以上により、第1モデル61を構成するそれぞれの変換器63が生成される。
図23を使用して説明したプログラムで作成された変換器63を含む第1モデル61は、たとえば医薬品医療機器等法上の承認等の手続が終了した後に、ネットワークを介して、または、記録媒体を介して、情報処理装置20に配信される。
図24は、実施の形態3の内視鏡検査時のプログラムの処理の流れを説明するフローチャートである。図24のプログラムは図6を使用して説明したプログラムの代わりに、制御部21により実行される。
制御部21は、内視鏡用プロセッサ11から内視鏡画像49を取得する(ステップS501)。制御部21は、取得した内視鏡画像49を第2モデル62に入力して、出力層533から出力される診断予測を取得する(ステップS502)。
制御部21は、第2モデル62の中間層532に含まれる所定のノードから特徴量を取得する(ステップS601)。所定のノードは、図23を使用して説明したステップS580で選択された特徴量が取得されたノードである。制御部21は、取得した特徴量を変換器63により変換して、スコアを算出する(ステップS602)。
制御部21は、すべてのスコアの算出を終了したか否かを判定する(ステップS603)。終了していないと判定した場合(ステップS603でNO)、制御部21はステップS601に戻る。終了したと判定した場合(ステップS603でYES)、制御部21は、図19の下部を使用して説明した画像を生成して、表示装置16に出力する(ステップS604)。制御部21は、処理を終了する。
本実施の形態によると、深層学習により生成される学習モデルは第2モデル62のみであるため、比較的少ない計算量で診断支援システム10を実現できる。
第2モデル62の中間層532から特徴量を取得することにより、人間が通常発想できる範囲の特徴量に限定されずに、スコアとの相関の高い特徴量を得ることができる。したがって、内視鏡画像49に基づいてそれぞれの診断基準予測を精度良く算出できる。
なお、第1スコア、第2スコアおよび第3スコアのうちの一部は実施の形態1と同様の方法で算出されても良い。
[実施の形態4]
本実施の形態は、深層学習以外の手法に基づいて診断基準予測を算出する情報処理システムに関する。実施の形態1または実施の形態2と共通する部分については、説明を省略する。
図25は、実施の形態4の診断支援システム10の概要を説明する説明図である。内視鏡14を用いて撮影された内視鏡画像49は、第2モデル62に入力される。第2モデル62は、内視鏡画像49が入力された場合に、潰瘍性大腸炎の診断予測を出力する。
第1モデル61は、第1変換器631、第2変換器632および第3変換器633を含む。第1変換器631は、内視鏡画像49が入力された場合に、赤みの程度を示す第1スコアの予測値を出力する。第2変換器632は、内視鏡画像49が入力された場合に、血管透見の程度を示す第2スコアの予測値を出力する。第3変換器633は、内視鏡画像49が入力された場合に、潰瘍の程度を示す第3スコアの予測値を出力する。
第1モデル61および第2モデル62の出力が、それぞれ第1取得部および第2取得部に取得される。第1取得部および第2取得部が取得した出力に基づいて、図25の下部に示す画面が表示装置16に表示される。表示される画面は、実施の形態1で説明した画面と同様であるため、説明を省略する。
図26は、実施の形態4の内視鏡画像49とスコアとの変換を説明する説明図である。なお、図26においては、第2モデル62の図示を省略する。
本実施の形態では、変換器A63A、変換器B63B等、内視鏡画像49が入力された場合に特徴量を出力する様々な変換器63が用いられる。たとえば、変換器A63Aにより内視鏡画像49が特徴量A65Aに変換される。
変換器63は、たとえば所定の条件を満たす画素の数または比率に基づいて、内視鏡画像49を特徴量に変換する。変換器63は、SVM(Support Vector Machine)またはランダムフォレスト等を用いた分類により内視鏡画像49を特徴量に変換しても良い。
変換器63により変換された特徴量と、内視鏡画像49に関連づけられた第1スコアから第3スコアとの間で相関解析が行なわれて、それぞれのスコアに対して相関の高い特徴量が選択される。図26においては、第1スコアと特徴量A65Aとの相関、第2スコアと特徴量C65Cとの相関、および、第3スコアと特徴量D65Dとの相関が高い場合を示す。
第1スコアと特徴量A65Aとの回帰分析を行ない、変換器A63Aと組み合わせることにより第1変換器631が求められる。同様に、第2スコアと特徴量C65Cとの回帰分析を行ない、変換器C63Cと組み合わせるにより第2変換器632が求められる。
図27は、実施の形態4の変換器63を作成するプログラムの処理の流れを説明するフローチャートである。制御部31は、教師データDB64から1個のレコードを選択する(ステップS611)。制御部31は、変換器A63Aおよび変換器B63B等の複数の変換器63をそれぞれ使用して、内視鏡画像フィールドに記録された内視鏡画像49を特徴量に変換する(ステップS612)。制御部31は、特徴量DBに新規レコードを作成し、ステップS611で取得したレコードに記録されているデータと、ステップS612で取得した特徴量とを記録する(ステップS613)。
制御部31は、処理を終了するか否かを判定する(ステップS614)。たとえば、所定の数の教師データレコードの処理を終了した場合に、制御部31は処理を終了すると判定する。処理を終了しないと判定した場合(ステップS614でNO)、制御部31はステップS611に戻る。
処理を終了すると判定した場合(ステップS614でYES)、制御部31は特徴量DBのスコアフィールドから一つのサブフィールドを選択する(ステップS575)。ステップS575からステップS581までの処理は、図23を使用して説明したプログラムの処理の流れと同一であるため、説明を省略する。
制御部31は、回帰分析により得た結果と、ステップS612で内視鏡画像49を特徴量に変換した変換器63とを組み合わせて、新たな変換器63を算出する(ステップS620)。制御部31は、算出した変換器63を補助記憶装置33に記憶する(ステップS621)。
制御部31は、特徴量DBのすべてのスコアフィールドの処理を終了したか否かを判定する(ステップS622)。終了していないと判定した場合(ステップS622でNO)、制御部31はステップS575に戻る。終了したと判定した場合(ステップS622でYES)、制御部31は処理を終了する。以上により、第1モデル61を構成するそれぞれの変換器63が生成される。
図27を使用して説明したプログラムで作成された変換器63を含む第1モデル61は、たとえば医薬品医療機器等法上の承認等の手続が終了した後に、ネットワークを介して、または、記録媒体を介して、情報処理装置20に配信される。
図28は、実施の形態4の内視鏡検査時のプログラムの処理の流れを説明するフローチャートである。図28のプログラムは図6を使用して説明したプログラムの代わりに、制御部21により実行される。
制御部21は、内視鏡用プロセッサ11から内視鏡画像49を取得する(ステップS501)。制御部21は、取得した内視鏡画像49を第2モデル62に入力して、出力層533から出力される診断予測を取得する(ステップS502)。
制御部21は、取得した内視鏡画像49を第1モデル61に含まれる変換器63に入力して、スコアを算出する(ステップS631)。
制御部21は、すべてのスコアの算出を終了したか否かを判定する(ステップS632)。終了していないと判定した場合(ステップS632でNO)、制御部21はステップS631に戻る。終了したと判定した場合(ステップS632でYES)、制御部21は、図25の下部を使用して説明した画像を生成して、表示装置16に出力する(ステップS633)。制御部21は、処理を終了する。
本実施の形態によると、深層学習により生成される学習モデルは第2モデル62のみであるため、比較的少ない計算量で診断支援システム10を実現できる。
なお、第1スコア、第2スコアおよび第3スコアのうちの一部は実施の形態1または実施の形態3と同様の方法で算出されても良い。
[実施の形態5]
本実施の形態は、がん、またはポリープ等の、限局性に発生する疾病の診断を支援する診断支援システム10に関する。実施の形態1または実施の形態2と共通する部分については、説明を省略する。
図29は、実施の形態5の診断支援システム10の概要を説明する説明図である。内視鏡14を用いて撮影された内視鏡画像49は、第2モデル62に入力される。第2モデル62は、内視鏡画像49が入力された場合に、ポリープ、または、がん等の病変部が存在すると予測された病変領域74の範囲を予測した領域予測、および、その病変が良性であるか悪性であるか等の診断予測を出力する。図29においては、病変領域74内のポリープが「悪性」である確率は5%、「良性」である確率は95%であると予測されている。
第2モデル62は、RCNN(Regions with Convolutional Neural Network)、Fast RCNN、Faster RCNN、SSD(Single Shot Multibook Detector)、または、YOLO(You Only Look Once)等の、任意の物体検出アルゴリズムを使用して生成された学習モデルである。医用画像の入力を受け付けて、病変部が存在する領域および診断予測を出力する学習モデルは従来から使用されているため、詳細については説明を省略する。
第1モデル61は、第1スコア学習モデル611、第2スコア学習モデル612および第3スコア学習モデル613を含む。第1スコア学習モデル611は、病変領域74内の画像が入力された場合に、境界の明瞭さの程度を示す第1スコアの予測値を出力する。第2スコア学習モデル612は、病変領域74内の画像が入力された場合に、表面の凸凹不整の程度を示す第2スコアの予測値を出力する。第3スコア学習モデル613は、病変領域74内の画像が入力された場合に、赤みの程度を示す第3スコアの予測値を出力する。
図29に示す例では、第1スコアは50、第2スコアは5、第3スコアは20であるという予測値が出力されている。なお、第1モデル61は、有茎性であるか等の形状、および、分泌物付着の程度等の、ポリープに関する様々な診断基準項目に関する診断基準予測を出力するスコア学習モデルを含んでも良い。
第1モデル61および第2モデル62の出力が、それぞれ第1取得部および第2取得部に取得される。第1取得部および第2取得部が取得した出力に基づいて、図29の下部に示す画面が表示装置16に表示される。表示される画面は、実施の形態1で説明した画面と同様であるため、説明を省略する。
内視鏡画像49中に複数の病変領域74が検出された場合には、それぞれの病変領域74が第1モデル61に入力され、診断基準予測が出力される。ユーザは、内視鏡画像欄73中に表示された病変領域74を選択することにより、当該病変領域74に関する診断予測およびスコアを閲覧できる。なお、複数の病変領域74に関する診断予測およびスコアを、画面上に一覧表示しても良い。
病変領域74は、円形、楕円形または任意の閉曲線により囲まれていても良い。そのようにする場合には、周辺領域は黒色または白色でマスクすることにより、第1モデル61への入力に適する形状に補正した画像が、第1モデル61に入力される。たとえば、複数のポリープが近接している場合に、1個のポリープが含まれる領域を切り出して、第1モデル61によりスコアを算出できる。
[実施の形態6]
本実施の形態は、第1モデル61が疾病に関する診断基準に定められたそれぞれのカテゴリである確率を出力する診断支援システム10に関する。実施の形態1と共通する部分については、説明を省略する。
図30は、実施の形態6の第1スコア学習モデル611の構成を説明する説明図である。図30を使用して説明する第1スコア学習モデル611は、図3を使用して説明した第1スコア学習モデル611の代わりに使用される。
第1スコア学習モデル611は、内視鏡画像49が入力された場合に、潰瘍性大腸炎の診断基準に基づいて赤みの程度が、「判定1」、「判定2」および「判定3」の3段階のそれぞれである確率を出力する、3個の出力ノードを出力層533に有する。「判定1」は赤みの程度は「正常」であることを、「判定2」は「紅斑」であることを、「判定3」は「強紅斑」であることを、それぞれ意味する。
同様に第2スコア学習モデル612においては、「判定1」は血管透見の程度は「正常」であることを、「判定2」は血管透見が「斑状に消失」していることを、「判定3」はほぼ全域にわたって「消失」していることを、それぞれ意味する。
なお、スコア学習モデルの出力層533のノードの数は任意である。本実施の形態においては、第3スコア学習モデル613は、「判定1」から「判定4」までの4個の出力ノードを出力層533に有する。「判定1」は潰瘍の程度は「なし」であることを、「判定2」は「びらん」であることを、「判定3」は「中位」の深さの潰瘍であることを、「判定4」は「深い」潰瘍であることを、それぞれ意味する。
図31は、実施の形態6の画面表示を説明する説明図である。画面の左上部に、内視鏡画像欄73が表示されている。画面の右側に、第1結果欄71および第1停止ボタン711が表示されている。内視鏡画像欄73の下側に、第2結果欄72および第2停止ボタン722が表示されている。
本実施の形態によると、診断基準に定められた定義に沿った表現で第1結果欄71を表示する診断支援システム10を提供できる。
[実施の形態7]
本実施の形態は、第1モデル61による出力と、第2モデル62による出力との間に齟齬がある場合に、注意喚起の表示を行なう診断支援システム10に関する。実施の形態1と共通する部分については、説明を省略する。
図32は、実施の形態7の画面表示を説明する説明図である。図32に示す例では、正常である確率は70%、赤みの程度を示す第1スコアは70、血管透見の程度を示す第2スコアは50、潰瘍の程度を示す第3スコアは5であるという診断基準予測が出力されている。
画面の下部に警告欄75が表示されている。警告欄75は、診断基準によると「赤み」の程度である第1スコアが高値である場合には、「正常」ではないと判定されるべきであるため、第1結果欄71と第2結果欄72との間に齟齬があることを示す。齟齬の有無は、診断基準に基づいてルールベースにより判定される。
このように、第1モデル61による出力と、第2モデル62による出力との間に齟齬がある場合に、警告欄75が表示されることにより、ユーザである医師の注意を喚起できる。
[実施の形態8]
本実施の形態は、内視鏡用プロセッサ11と情報処理装置20とが一体である診断支援システム10に関する。実施の形態1と共通する部分については、説明を省略する。
図33は、実施の形態8の診断支援システム10の概要を説明する説明図である。なお、図33においては、光源、送気送水ポンプおよび撮像素子141の制御部等の、内視鏡用プロセッサ11の基本機能を実現する構成については、図示および説明を省略する。
診断支援システム10は、内視鏡14と、内視鏡用プロセッサ11とを含む。内視鏡用プロセッサ11は、内視鏡接続部12、制御部21、主記憶装置22、補助記憶装置23、通信部24、表示装置I/F26、入力装置I/F27およびバスを備える。
制御部21、主記憶装置22、補助記憶装置23、通信部24、表示装置I/F26、入力装置I/F27は、実施の形態1と同様であるため、説明を省略する。内視鏡14は、内視鏡コネクタ15を介して内視鏡接続部12に接続されている。
本実施の形態によると、制御部21は内視鏡接続部12を介して内視鏡14から映像信号を受信して各種の画像処理を行ない、医師による観察に適した内視鏡画像49を生成する。制御部21は、生成した内視鏡画像49を第1モデル61に入力して、診断基準に沿った各項目の診断基準予測を取得する。制御部21は、生成した内視鏡画像49を第2モデル62に入力して、疾病の診断予測を取得する。
なお、第1モデル61および第2モデル62は、内視鏡14から取得した映像信号、または、映像信号に基づいて内視鏡画像49を生成する途中の画像を受け付けるように構成されていても良い。このようにすることにより、医師による観察に適した画像を生成する途中で失われる情報も利用可能な診断支援システム10を提供できる。
[実施の形態9]
本実施の形態は、内視鏡画像49中の、第1モデル61から出力された診断基準予測に影響を及ぼした領域を表示する診断支援システム10に関する。実施の形態1と共通する部分については、説明を省略する。
図34は、実施の形態9の診断支援システム10の概要を説明する説明図である。図34は、図1を使用して説明した実施の形態1の診断支援システム10に、第2スコアに影響を及ぼした領域を抽出する抽出部66を追加した診断支援システム10を示す。
実施の形態1と同様に、内視鏡画像49が第1モデル61および第2モデル62に入力され、それぞれの出力が第1取得部および第2取得部に取得される。内視鏡画像49のうち、第2スコアに影響を及ぼした注目領域が、抽出部66により抽出される。
抽出部66は、たとえばCAM(Class Activation Mapping)、Grad−CAM(Gradient-weighted Class Activation Mapping)、または、Grad−CAM++等の、公知の注目領域可視化手法のアルゴリズムにより実現できる。
抽出部66は、制御部21により実行されるソフトウェアにより実現されても、画像処理チップ等のハードウェアにより実現されても良い。以下の説明においては、抽出部66がソフトウェアにより実現される場合を例にして説明する。
制御部21は、第1取得部および第2取得部が取得した出力と、抽出部66が抽出した注目領域とに基づいて、図34の下部に示す画面を表示装置16に表示する。表示される画面は、内視鏡画像欄73、第1結果欄71、第2結果欄72および注目領域欄78を含む。
内視鏡画像欄73には、内視鏡14を用いて撮影された内視鏡画像49がリアルタイムで表示されている。第1結果欄71には、第1モデル61から出力された診断基準予測が表示されている。第2結果欄72には第2モデル62から出力された診断予測が表示されている。
図34に示す例においては、第1結果欄71の第2スコアを示す「血管透見」の項目がユーザにより選択されていることが、選択カーソル76により表示されている。
注目領域欄78には、抽出部66により抽出された注目領域が注目領域指標781により表示されている。注目領域指標781は、第2スコアに対する影響の大小をヒートマップまたは等高線表示により表現する。図34においては、注目領域指標781は、診断基準予測への影響が強い場所ほど細かいハッチングを用いて表示されている注目領域指標781は所定の閾値よりも第2スコアに対する影響の強い領域を囲む枠等により表現されても良い。
なお、第1スコアを示す「赤み」の項目がユーザにより選択されている場合には、選択カーソル76は「赤み」の項目に表示される。抽出部66は、第1スコアに影響を及ぼした領域を抽出する。同様に、第3スコアを示す「潰瘍」の項目がユーザにより選択されている場合には、選択カーソル76は「潰瘍」の項目に表示される。抽出部66は、第3スコアに影響を及ぼした領域を抽出する。いずれの診断基準項目もユーザにより選択されていない場合には、選択カーソル76は表示されず、注目領域欄78に注目領域指標781は表示されない。
診断支援システム10は、複数の診断基準項目の選択を同時に受付可能であってもよい。そのようにする場合には、診断支援システム10は選択を受け付けたそれぞれの診断基準項目に関する診断基準予測に影響を及ぼした領域を抽出する、複数の抽出部66を有する。
図35は、第1モデル61の構成を説明する説明図である。本実施の形態においては、図3を使用して概要を説明した第1モデル61の構成を、さらに詳しく説明する。
内視鏡画像49は、特徴量抽出部551に入力する。特徴量抽出部551は、畳み込み層とプーリング層との繰り返しにより構成されている。畳み込み層においては、複数のフィルタのそれぞれと、入力画像との畳み込み処理が行なわれる。図35において、積み重なった四角形は、それぞれ異なるフィルタとの畳み込み処理が行なわれた画像を模式的に示す。
プーリング層においては、入力画像が縮小される。特徴量抽出部551の最終層では、元の内視鏡画像49の様々な特徴を反映した小さい画像が複数生成される。これらの画像の各画素を一次元に配列したデータが、全結合層552に入力する。特徴量抽出部551および全結合層552のパラメータは、機械学習により調整されている。
全結合層552の出力は、ソフトマックス層553により合計が1になるように調整されて、各ノードの予測確率がソフトマックス層553から出力される。表1に、ソフトマックス層553の出力の例を示す。
Figure 2020089712
たとえば、ソフトマックス層553の1番目のノードから、第1スコアの値が0以上20未満である確率が出力される。ソフトマックス層553の2番目のノードから、第1スコアの値が20以上40未満である確率が出力される。全ノードの確率の合計は1である。
代表値算出部554によりソフトマックス層553の出力の代表値であるスコアが算出されて、出力される。代表値は、たとえばスコアの期待値、または中央値等である。
図36は、抽出部66の構成を説明する説明図である。制御部21は、代表値算出部554によって算出されたスコアに対応するソフトマックス層553の出力ノードに「1」、それ以外の出力ノードに「0」を設定する。制御部21は、全結合層552の逆伝搬を計算する。
制御部21は、逆伝搬によって得られた特徴量抽出部551の最終層の画像に基づいてヒートマップを生成する。以上により、注目領域指標781が定められる。
ヒートマップの生成は、たとえばCAM(Class Activation Mapping)、Grad−CAM(Gradient-weighted Class Activation Mapping)、または、Grad−CAM++等の公知の手法により行なえる。
なお、制御部21は、特徴量抽出部551の逆伝搬を行ない、最終層以外の画像に基づいてヒートマップを生成しても良い。
たとえば、Grad−CAMを用いる場合、具体的には、制御部21は第1スコア学習モデル611、第2スコア学習モデル612、または第3スコア学習モデル613のモデルの種類と、複数の畳み込み層のうちのいずれかの層名とを受け付ける。制御部21はGrad−CAMのコードに受け付けたモデルの種類と層名とを入力し、勾配を求めた上でヒートマップを生成する。制御部21は生成したヒートマップ、当該ヒートマップに対応するモデル名と層名とを表示装置16に表示する。
図37は、実施の形態9のプログラムの処理の流れを説明するフローチャートである。図37のプログラムは図6を使用して説明したプログラムの代わりに、制御部21により実行される。ステップS501からステップS504までの処理は、図6を使用して説明したプログラムの処理の流れと同一であるため、説明を省略する。
制御部21は、注目領域に関する表示の選択を受け付けているか否かを判定する(ステップS651)。選択を受け付けていると判定した場合(ステップS651でYES)、制御部21は注目領域抽出のサブルーチンを起動する(ステップS652)。注目領域抽出のサブルーチンは、内視鏡画像49から所定の診断基準予測に影響を及ぼした注目領域を抽出するサブルーチンである。注目領域抽出のサブルーチンの処理の流れは後述する。
選択を受け付けていないと判定した場合(ステップS651でNO)、またはステップS652の終了後、制御部21は、図34の下部を使用して説明した画像を生成して、表示装置16に出力する(ステップS653)。その後、制御部21は処理を終了する。
図38は、注目領域抽出のサブルーチンの処理の流れを説明するフローチャートである。注目領域抽出のサブルーチンは、内視鏡画像49から所定の診断基準予測に影響を及ぼした注目領域を抽出するサブルーチンである。注目領域抽出のサブルーチンは、ソフトウェアにより抽出部66の機能を実現する。
制御部21は、代表値算出部554によって算出されたスコアに対応する、ソフトマックス層553の出力ノードを判定する(ステップS681)。制御部21は、ステップS681で判定したノードに「1」、それ以外のソフトマックス層のノードに「0」を設定する。制御部21は、全結合層552の逆伝搬を計算する(ステップS682)。
制御部21は、特徴量抽出部551の最終層に対応する画像を生成する。制御部21は、生成した複数の画像に所定の重み付けを行ない、画像上の各部位が、ソフトマックス層553に与えた重みを算出する。制御部21は、重みの大きい部分に基づいて、注目領域指標781の形状および位置を定める(ステップS683)。
本実施の形態によると、内視鏡画像49のどの部分が、診断基準予測に影響したかを表示する診断支援システム10を提供できる。注目領域指標781と、内視鏡画像欄73に表示された内視鏡画像49とを見比べることにより、ユーザは内視鏡画像49中のどの部分が診断基準予測に寄与したかを理解できる。たとえば、残渣が存在する部分またはフレアが存在する部分等、正常に撮影されていない部分が診断基準予測に寄与している場合には、ユーザは表示された診断基準予測を無視するべきであると判断できる。
内視鏡画像欄73と注目領域欄78とを分けて表示することにより、ユーザは注目領域指標781により阻害されずに内視鏡画像49の色および質感等を観察できる。なお、内視鏡画像欄73と注目領域欄78とを同一スケールで表示することにより、ユーザは内視鏡画像49と注目領域指標781との位置関係をさらに直感的に把握できる。
[第1変形例]
図39は、実施の形態9の第1変形例の画面表示を説明する説明図である。本変形例においては、注目領域欄78に内視鏡画像49と注目領域指標781とを重畳して表示させている。すなわち、CPU21は内視鏡画像欄73と注目領域欄78とに同一の内視鏡画像49を表示する。
本実施の形態によると、ユーザは内視鏡画像49と注目領域指標781との位置関係をに直感的に把握できる。また、内視鏡画像欄73を見ることにより、注目領域指標781に妨げられずに、内視鏡画像49を観察できる。
[第2変形例]
本変形例は、実施の形態6の診断支援システム10に対して注目領域指標781を表示する機能を追加する。表2に、第1スコア学習モデル611のソフトマックス層553の例を示す。
Figure 2020089712
たとえば、ソフトマックス層553の1番目のノードから、赤みの状態は「正常」である確率が出力される。ソフトマックス層553の2番目のノードから、「紅斑あり」である確率が出力される。ソフトマックス層553の3番目のノードから、「強紅斑あり」である確率が出力される。
代表値算出部554における演算は行なわれず、ソフトマックス層553の出力ノードがそのまま第1モデル61から出力される。
図40は、実施の形態9の第2変形例の画面表示を説明する説明図である。本変形例においては、第1結果欄71に疾病に関する診断基準に定められたそれぞれのカテゴリである確率を出力される。
図40に示す例においては、第1結果欄71の第1スコアのうちの「正常」の項目および、第2スコアのうちの「斑状に消失」の項目がユーザにより選択されていることが、選択カーソル76により表示されている。図40の中央部に上下に並んだ2個の注目領域欄78が表示されている。
第1スコアを例にして説明する。制御部21は、ユーザにより選択された「正常」に対応するソフトマックス層553の出力ノードに「1」、それ以外の出力ノードに「0」を設定する。制御部21は、全結合層552の逆伝搬を行ない、「正常」である確率が90パーセントであるという判定に影響を与えた部分を示す注目領域指標781を生成する。
制御部21は、上側の注目領域欄78に、「赤み」が「正常」である確率に関する注目領域指標781を表示する。ユーザが、「紅斑」の項目に選択を変更した場合、制御部21は「紅斑」に対応するソフトマックス層553の出力ノードに「1」、それ以外の出力ノードに「0」を設定する。制御部21は、全結合層552の逆伝搬を行ない、「紅斑」である確率が10パーセントであるという判定に影響を与えた部分を示す注目領域指標781を生成して、画面を更新する。
ユーザは、選択カーソル76を操作して、たとえば「赤み」の項目のうちの「正常」の項目と、「紅斑」の項目とを選択しても良い。ユーザは、注目領域欄78に「赤み」が「正常」である確率に影響を与えた部分と、「赤み」が「紅斑」である確率に影響を与えた部分とを、それぞれ確認できる。
[第3変形例]
本変形例は、診断予測の項目に対して注目領域指標781を表示する機能を追加する。図41は、実施の形態9の第3変形例の画面表示を説明する説明図である。
図41に示す例においては、第2結果欄72の「軽度」の項目がユーザにより選択されていることが、選択カーソル76により表示されている。注目領域欄78には、潰瘍性大腸炎が「軽度」であるという判定に影響を及ぼす部位を示す、注目領域指標781が表示されている。
ユーザは、「軽度」である確率が20%という判定に影響を与えた部分を、注目領域指標781により確認できる。ユーザは、たとえば注目領域指標781により示された場所を、異なる向きからさらに観察する等により、第2モデル62による「軽度」であるという判定の当否を再確認できる。
[実施の形態10]
本実施の形態は、逆伝搬を用いずに抽出部66を実現する診断支援システム10に関する。
図42は、実施の形態10の注目領域抽出のサブルーチンの処理の流れを説明するフローチャートである。注目領域抽出のサブルーチンは、内視鏡画像49から所定の診断基準予測に影響を及ぼした注目領域を抽出するサブルーチンである。図42を使用して説明するサブルーチンは、図38を使用して説明したサブルーチンの代わりに実行される。
制御部21は、内視鏡画像49から1つの画素を選択する(ステップS661)。制御部21は、ステップS661で選択した画素に微小な変化を付与する(ステップS662)。微小な変化は、選択した画素のRGB(Red Green Blue)のいずれかの値に1を加算または減算することにより付与する。
制御部21は、変化を付与された内視鏡画像49を、ユーザにより選択された項目に関する第1モデル61に入力して、診断基準予測を取得する(ステップS663)。制御部21は、変化を付与される前の内視鏡画像49に基づいて取得された診断基準予測と比較した、診断基準予測の変化量を算出する(ステップS664)。
診断基準予測への影響が強い画素ほど、当該画素の微小な変化による診断基準予測の変化量が大きい。したがって、ステップS664で算出される変化量は、当該画素の診断基準予測に対する影響の強弱を示す。
制御部21は、ステップS661で選択した画素の位置と関連づけてステップS664で算出した変化量を記録する(ステップS665)。制御部21は、すべての画素の処理を終了したか否かを判定する(ステップS666)。終了していないと判定した場合(ステップSS666でNO)、制御部21はステップS661に戻る。
終了したと判定した場合(ステップS666でYES)、制御部21は画素の位置と変化量とに基づいて、変化量をマップ化する(ステップS667)。マップ化は、たとえば変化量の大小に基づくヒートマップの作成または等高線の作成等により実施され、変化量が大きい領域を示す注目領域指標781の形状および位置が決定される。その後、制御部21は処理を終了する。
なお、ステップS661において、制御部21は、たとえば縦横とも数画素ごとに画素を選択しても良い。画素を間引きして処理することにより、注目領域抽出のサブルーチンの処理を高速化できる。
図37のステップS651からステップS653までの処理を、図24を使用して説明した実施の形態3の内視鏡検査時のプログラムのステップS604の代わりに実行するとともに、ステップS652において本実施の形態のサブルーチンを起動しても良い。実施の形態3の診断支援システム10に対して、注目領域指標781を表示する機能を追加できる。
図37のステップS651からステップS653までの処理を、図28を使用して説明した実施の形態4の内視鏡検査時のプログラムのステップS633の代わりに実行するとともに、ステップS652において本実施の形態のサブルーチンを起動しても良い。実施の形態4の診断支援システム10に対して、注目領域指標781を表示する機能を追加できる。
本実施の形態によると、第1モデル61がソフトマックス層553および全結合層552を有さない場合、すなわちニューラルネットワークモデル53以外の手法を用いた場合であっても、注目領域指標781を表示可能な診断支援システム10を提供できる。
本実施の形態のプログラムは、第2モデル62の注目領域抽出にも応用できる。このようにする場合、図42を使用して説明した注目領域抽出のサブルーチンのステップS663において、制御部21は、変化を付与された内視鏡画像49を、第2モデル62に入力して診断予測を取得する。続くステップS664において、制御部21は、変化を付与される前の内視鏡画像49に基づいて取得された「軽度」である確率と、ステップS664で取得された「軽度」である確率とを比較して、診断予測の変化量を算出する。
[実施の形態11]
図43は、実施の形態11の情報処理装置20の機能ブロック図である。情報処理装置20は、画像取得部281、第1取得部282、抽出部66および出力部283を有する。画像取得部281は、内視鏡画像49を取得する。
第1取得部282は、内視鏡画像49が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデル61に、画像取得部281が取得した内視鏡画像49を入力して、出力される診断基準予測を取得する。抽出部66は、内視鏡画像49から、第1取得部282が取得した診断基準予測に影響を及ぼした領域を抽出する。出力部283は、第1取得部282が取得した診断基準予測と、抽出部66が抽出した領域を示す指標と、内視鏡画像49に基づいて取得した疾病の状態に関する診断予測とを関連づけて出力する。
[実施の形態12]
本実施の形態は、汎用のコンピュータ90とプログラム97とを組み合わせて動作させることにより、本実施の形態の診断支援システム10を実現する形態に関する。図44は、実施の形態12の診断支援システム10の構成を示す説明図である。実施の形態1と共通する部分については、説明を省略する。
本実施の形態の診断支援システム10は、コンピュータ90と、内視鏡用プロセッサ11と内視鏡14とを含む。コンピュータ90は、制御部21、主記憶装置22、補助記憶装置23、通信部24、表示装置I/F26、入力装置I/F27、読取部29、およびバスを備える。コンピュータ90は、汎用のパーソナルコンピュータ、タブレットまたはサーバコンピュータ等の情報機器である。
プログラム97は、可搬型記録媒体96に記録されている。制御部21は、読取部29を介してプログラム97を読み込み、補助記憶装置23に保存する。また制御部21は、コンピュータ90内に実装されたフラッシュメモリ等の半導体メモリ98に記憶されたプログラム97を読出しても良い。さらに、制御部21は、通信部24および図示しないネットワークを介して接続される図示しない他のサーバコンピュータからプログラム97をダウンロードして補助記憶装置23に保存しても良い。
プログラム97は、コンピュータ90の制御プログラムとしてインストールされ、主記憶装置22にロードして実行される。これにより、コンピュータ90と内視鏡用プロセッサ11と内視鏡14とは、上述した診断支援システム10として機能する。
各実施例で記載されている技術的特徴(構成要件)はお互いに組合せ可能であり、組み合わせすることにより、新しい技術的特徴を形成することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
(付記1)
内視鏡画像を取得する画像取得部と、
内視鏡画像が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデルに、前記画像取得部が取得した内視鏡画像を入力して、出力される診断基準予測を取得する第1取得部と、
前記第1取得部が取得した診断基準予測を、前記内視鏡画像に基づいて取得した前記疾病の状態に関する診断予測と関連づけて出力する出力部と
を備える情報処理装置。
(付記2)
前記第1取得部は、前記疾病の診断基準に含まれる複数の項目の診断基準予測をそれぞれ出力する複数の第1モデルからそれぞれの項目の診断基準予測を取得する
付記1に記載の情報処理装置。
(付記3)
前記第1モデルは、機械学習により生成された学習モデルである
付記1または付記2に記載の情報処理装置。
(付記4)
前記第1モデルは、前記画像取得部が取得した内視鏡画像に基づいて算出した数値を出力する
付記1または付記2に記載の情報処理装置。
(付記5)
前記第1取得部の動作停止指示を受け付ける第1受付部を備える
付記1から付記4のいずれか一つに記載の情報処理装置。
(付記6)
前記診断予測は、内視鏡画像が入力された場合に前記疾病の診断予測を出力する第2モデルに、前記画像取得部が取得した内視鏡画像を入力して、出力された診断予測である
付記1から付記5のいずれか一つに記載の情報処理装置。
(付記7)
前記第2モデルは、機械学習により生成された学習モデルである
付記6に記載の情報処理装置。
(付記8)
前記第2モデルは、
内視鏡画像が入力される入力層と、
疾病の診断予測を出力する出力層と、
内視鏡画像と診断予測とを関連づけて記録した複数組の教師データによりパラメータが学習された中間層とを備えるニューラルネットワークモデルであり、
前記第1モデルは、前記中間層の所定のノードから取得した特徴量に基づいて診断基準予測を出力する
付記6または付記7に記載の情報処理装置。
(付記9)
前記第2モデルは、内視鏡画像が入力された場合に前記疾病が含まれる病変領域に関する領域予測を出力し、
前記第1モデルは、病変領域の内視鏡画像が入力された場合に疾病の診断基準に関する診断基準予測を出力し、
前記第1取得部は、前記画像取得部が取得した内視鏡画像のうち前記第2モデルから出力された領域予測に対応する部分を前記第1モデルに入力して、出力される診断基準予測を取得する
付記6または付記7に記載の情報処理装置。
(付記10)
前記診断予測の取得を停止する指示を受け付ける第2受付部を備える
付記6から付記9のいずれか一つに記載の情報処理装置。
(付記11)
前記出力部は、前記画像取得部が取得した内視鏡画像も出力する
付記6から付記10のいずれか一つに記載の情報処理装置。
(付記12)
前記画像取得部は、内視鏡検査中に撮影された内視鏡画像をリアルタイムで取得し、
前記出力部は、前記画像取得部による内視鏡画像の取得と同期して出力を行なう
付記1から付記11のいずれか一つに記載の情報処理装置。
(付記13)
内視鏡が接続される内視鏡接続部と
前記内視鏡接続部に接続された内視鏡から取得した映像信号に基づいて内視鏡画像を生成する画像生成部と、
内視鏡画像が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデルに、前記画像生成部が生成した内視鏡画像を入力して、出力される診断基準予測を取得する第1取得部と、
前記第1取得部が取得した診断基準予測を、前記内視鏡画像に基づいて取得した前記疾病の状態に関する診断予測と関連づけて出力する出力部と
を備える内視鏡用プロセッサ。
(付記14)
内視鏡画像を取得し、
内視鏡画像が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデルに、取得した内視鏡画像を入力して、出力される診断基準予測を取得し、
取得した診断基準予測を、前記内視鏡画像に基づいて取得した前記疾病の状態に関する診断予測と関連づけて出力する
処理をコンピュータに実行させる情報処理方法。
(付記15)
内視鏡画像を取得し、
内視鏡画像が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデルに、取得した内視鏡画像を入力して、出力される診断基準予測を取得し、
取得した診断基準予測を、前記内視鏡画像に基づいて取得した前記疾病の状態に関する診断予測と関連づけて出力する
処理をコンピュータに実行させるプログラム。
(付記16)
内視鏡画像と、疾病の診断に用いられる診断基準について判定された判定結果とを関連づけて記録した複数の組の教師データを取得し、
前記教師データを用いて、内視鏡画像が入力された場合に疾病の診断基準について予測した診断基準予測を出力する第1モデルを生成する
モデルの生成方法。
(付記17)
前記教師データは、前記診断基準に含まれる複数の診断基準項目のそれぞれについて判定した判定結果を含み、
前記第1モデルは、複数の前記診断基準項目のそれぞれに対応して生成される
付記16に記載のモデルの生成方法。
(付記18)
前記第1モデルは、取得した内視鏡画像が入力層に入力された場合に、取得した判定結果が出力層から出力されるように中間層のパラメータを調整する深層学習により生成される
付記16または付記17に記載のモデルの生成方法。
(付記19)
前記第1モデルは、
内視鏡画像が入力された場合に前記疾病の診断予測を出力するニューラルネットワークモデルに、取得した教師データ中の内視鏡画像を入力し、
前記ニューラルネットワークモデルの中間層を構成するノードから、入力した内視鏡画像に関する複数の特徴量を取得し、
取得した複数の特徴量から、前記内視鏡画像に関連づけられた判定結果との相関が高い特徴量を選択し、
選択した特徴量と、前記判定結果を数値化したスコアとの回帰分析により、選択した特徴量に基づいて前記スコアを算出する計算方法を定めることにより生成する
付記16または付記17に記載のモデルの生成方法。
(付記20)
前記第1モデルは、
取得した内視鏡画像から複数の特徴量を抽出し、
抽出した複数の特徴量から、前記内視鏡画像に関連づけられた判定結果との相関が高い特徴量を選択し、
選択した特徴量と、前記判定結果を数値化したスコアとの回帰分析により、選択した特徴量に基づいて前記スコアを算出する計算方法を定めることにより生成する
付記16または付記17に記載のモデルの生成方法。
(付記21)
前記疾病は、潰瘍性大腸炎であり、
前記診断基準予測は、内視鏡画像の赤み、血管透見、または、潰瘍の重症度に関する予測である
付記16から付記20のいずれか一つに記載のモデルの生成方法。
(付記22)
内視鏡画像と、疾病の診断に用いられる診断基準について判定された判定結果とを関連づけて記録した複数の組の教師データを取得し、
内視鏡画像が入力された場合に前記疾病の診断予測を出力するニューラルネットワークモデルに、取得した教師データ中の内視鏡画像を入力し、
前記ニューラルネットワークモデルの中間層を構成するノードから、入力した内視鏡画像に関する複数の特徴量を取得し、
取得した複数の特徴量を、入力した内視鏡画像に関連づけられた判定結果を数値化したスコアと関連づけて記録し、
記録した複数の特徴量のそれぞれと前記スコアとの相関に基づいて、前記スコアとの相関が高い特徴量を選択し、
選択した特徴量と、前記スコアとの回帰分析により、選択した特徴量に基づいて前記スコアを算出する計算方法を定めることにより、内視鏡画像が入力された場合に前記疾病の診断基準について予測した診断基準予測を出力する第1モデルを生成する
処理をコンピュータに実行させるプログラム。
10 診断支援システム
11 内視鏡用プロセッサ
12 内視鏡接続部
14 内視鏡
141 撮像素子
142 挿入部
15 内視鏡コネクタ
16 表示装置
161 第1表示装置
162 第2表示装置
17 キーボード
19 モデル生成システム
20 情報処理装置
21 制御部
22 主記憶装置
23 補助記憶装置
24 通信部
26 表示装置I/F
27 入力装置I/F
281 画像取得部
282 第1取得部
283 出力部
29 読取部
30 サーバ
31 制御部
32 主記憶装置
33 補助記憶装置
34 通信部
40 クライアント
41 制御部
42 主記憶装置
43 補助記憶装置
44 通信部
46 表示部
47 入力部
49 内視鏡画像
53 ニューラルネットワークモデル
531 入力層
532 中間層
533 出力層
551 特徴量抽出部
552 全結合層
553 ソフトマックス層
554 代表値算出部
61 第1モデル
611 第1スコア学習モデル
612 第2スコア学習モデル
613 第3スコア学習モデル
62 第2モデル
63 変換器
631 第1変換器
632 第2変換器
633 第3変換器
64 教師データDB
65 特徴量
651 第1特徴量
652 第2特徴量
653 第3特徴量
66 抽出部
71 第1結果欄
711 第1停止ボタン
72 第2結果欄
722 第2停止ボタン
73 内視鏡画像欄
74 病変領域
75 警告欄
76 選択カーソル
78 注目領域欄
781 注目領域指標(指標)
81 第1入力欄
811 第1スコア入力欄
812 第2スコア入力欄
813 第3スコア入力欄
82 第2入力欄
86 患者ID欄
87 疾病名欄
88 モデルボタン
89 次ボタン
90 コンピュータ
96 可搬型記録媒体
97 プログラム
98 半導体メモリ

Claims (10)

  1. 内視鏡画像を取得する画像取得部と、
    内視鏡画像が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデルに、前記画像取得部が取得した内視鏡画像を入力して、出力される診断基準予測を取得する第1取得部と、
    前記内視鏡画像から、前記第1取得部が取得した診断基準予測に影響を及ぼした領域を抽出する抽出部と、
    前記第1取得部が取得した診断基準予測と、前記抽出部が抽出した領域を示す指標と、前記内視鏡画像に基づいて取得した前記疾病の状態に関する診断予測とを関連づけて出力する出力部と
    を備える情報処理装置。
  2. 前記第1取得部は、前記疾病の診断基準に関する複数の項目の診断基準予測をそれぞれ出力する複数の第1モデルからそれぞれの項目の診断基準予測を取得し、
    複数の前記項目から、選択項目を受け付ける受付部を備え、
    前記抽出部は、前記受付部が受け付けた選択項目に関する診断基準予測に影響を及ぼした領域を抽出する
    請求項1に記載の情報処理装置。
  3. 前記出力部は、前記内視鏡画像と、前記指標とを並べて出力する
    請求項1または請求項2に記載の情報処理装置。
  4. 前記出力部は、前記内視鏡画像と、前記指標とを重ねて出力する
    請求項1または請求項2に記載の情報処理装置。
  5. 前記抽出部の動作停止指示を受け付ける停止受付部を備える
    請求項1から請求項4のいずれか一つに記載の情報処理装置。
  6. 内視鏡画像が入力された場合に前記疾病の診断予測を出力する第2モデルに、前記画像取得部が取得した内視鏡画像を入力して、出力される診断予測を取得する第2取得部を備え、
    前記出力部は、前記第2取得部が取得した診断基準予測と、前記第1取得部が取得した診断予測と、前記指標とを出力する
    請求項1から請求項5のいずれか一つに記載の情報処理装置。
  7. 内視鏡画像を取得する画像取得部と、
    内視鏡画像が入力された場合に疾病の診断予測を出力する第2モデルに、前記画像取得部が取得した内視鏡画像を入力して、出力される診断予測を取得する第2取得部と、
    前記内視鏡画像から、前記第2取得部が取得した診断基準予測に影響を及ぼした領域を抽出する抽出部と、
    前記第2取得部が取得した診断予測と、前記抽出部が抽出した領域を示す指標とを関連づけて出力する出力部と
    を備える情報処理装置。
  8. 内視鏡が接続される内視鏡接続部と
    前記内視鏡接続部に接続された内視鏡から取得した映像信号に基づいて内視鏡画像を生成する画像生成部と、
    内視鏡から取得した映像信号が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデルに、前記内視鏡から取得した映像信号を入力して、出力される診断基準予測を取得する第1取得部と、
    前記内視鏡画像から、前記第1取得部が取得した診断基準予測に影響を及ぼした領域を抽出する抽出部と、
    前記第1取得部が取得した診断基準予測と、前記抽出部が抽出した領域を示す指標と、前記内視鏡画像に基づいて取得した前記疾病の状態に関する診断予測とを関連づけて出力する出力部と
    を備える内視鏡用プロセッサ。
  9. 内視鏡画像を取得し、
    内視鏡画像が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデルに、取得した内視鏡画像を入力して、出力される診断基準予測を取得し、
    前記内視鏡画像から、取得した診断基準予測に影響を及ぼした領域を抽出し、
    取得した診断基準予測と、抽出した領域を示す指標と、前記内視鏡画像に基づいて取得した前記疾病の状態に関する診断予測とを関連づけて出力する
    処理をコンピュータに実行させる情報処理方法。
  10. 内視鏡画像を取得し、
    内視鏡画像が入力された場合に疾病の診断基準に関する診断基準予測を出力する第1モデルに、取得した内視鏡画像を入力して、出力される診断基準予測を取得し、
    前記内視鏡画像から、取得した診断基準予測に影響を及ぼした領域を抽出し、
    取得した診断基準予測と、抽出した領域を示す指標と、前記内視鏡画像に基づいて取得した前記疾病の状態に関する診断予測とを関連づけて出力する
    処理をコンピュータに実行させるプログラム。
JP2019100649A 2018-12-04 2019-05-29 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム Active JP6872581B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202410051899.3A CN117814732A (zh) 2018-12-04 2019-11-13 模型生成方法
US17/252,942 US20210407077A1 (en) 2018-12-04 2019-11-13 Information processing device and model generation method
DE112019006011.2T DE112019006011T5 (de) 2018-12-04 2019-11-13 Informationsverarbeitungsvorrichtung und modellerzeugungsverfahren
PCT/JP2019/044578 WO2020116115A1 (ja) 2018-12-04 2019-11-13 情報処理装置およびモデルの生成方法
CN201980043891.XA CN112399816B (zh) 2018-12-04 2019-11-13 信息处理装置和模型生成方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862775197P 2018-12-04 2018-12-04
US62/775,197 2018-12-04

Publications (3)

Publication Number Publication Date
JP2020089712A true JP2020089712A (ja) 2020-06-11
JP2020089712A5 JP2020089712A5 (ja) 2021-01-14
JP6872581B2 JP6872581B2 (ja) 2021-05-19

Family

ID=71011993

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019100649A Active JP6872581B2 (ja) 2018-12-04 2019-05-29 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム
JP2019100647A Active JP6877486B2 (ja) 2018-12-04 2019-05-29 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム
JP2019100648A Active JP7015275B2 (ja) 2018-12-04 2019-05-29 モデルの生成方法、教師データの生成方法、および、プログラム
JP2021075220A Active JP7155330B2 (ja) 2018-12-04 2021-04-27 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2019100647A Active JP6877486B2 (ja) 2018-12-04 2019-05-29 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム
JP2019100648A Active JP7015275B2 (ja) 2018-12-04 2019-05-29 モデルの生成方法、教師データの生成方法、および、プログラム
JP2021075220A Active JP7155330B2 (ja) 2018-12-04 2021-04-27 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム

Country Status (3)

Country Link
JP (4) JP6872581B2 (ja)
CN (1) CN112399816B (ja)
DE (1) DE112019006011T5 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102253398B1 (ko) * 2020-11-19 2021-05-18 주식회사 웨이센 인공지능 기반의 영상 처리 및 사용자 이벤트를 통한 사용자 인터페이스 제공 방법 및 해당 방법을 이용하는 영상 수신 장치
KR102268771B1 (ko) * 2020-11-26 2021-06-24 주식회사 웨이센 인공지능 기반의 영상 처리를 통한 사용자 인터페이스 제공 방법 및 해당 방법을 이용하는 영상 수신 장치
WO2022114357A1 (ko) * 2020-11-25 2022-06-02 주식회사 아이도트 영상 병변 진단 시스템
WO2022168412A1 (ja) * 2021-02-05 2022-08-11 株式会社日立製作所 画像処理装置、画像処理方法及びプログラム
WO2023032317A1 (ja) * 2021-09-02 2023-03-09 ソニーグループ株式会社 プログラム、情報処理装置、情報処理方法
KR102672710B1 (ko) * 2023-07-06 2024-06-05 주식회사 서르 내시경 영상 합성 장치 및 합성 방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7440388B2 (ja) 2020-09-28 2024-02-28 株式会社日立製作所 画像診断支援装置および画像処理方法
KR102505791B1 (ko) * 2021-01-11 2023-03-03 한림대학교 산학협력단 실시간 영상을 통해 획득되는 병변 판단 시스템의 제어 방법, 장치 및 프로그램
WO2022200624A2 (en) * 2021-03-26 2022-09-29 Datawalk Spolka Akcyjna Systems and methods for end-to-end machine learning with automated machine learning explainable artificial intelligence
CN117396124A (zh) * 2021-05-24 2024-01-12 阿瑙特株式会社 信息处理装置、信息处理方法、以及计算机程序
CN115206512B (zh) * 2022-09-15 2022-11-15 武汉大学人民医院(湖北省人民医院) 基于物联网的医院信息管理方法及装置
WO2024105910A1 (ja) * 2022-11-18 2024-05-23 株式会社 Sai 疾病リスク評価装置、疾病リスク評価システム、及び疾病リスク評価方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155840A (ja) * 1998-11-18 2000-06-06 Olympus Optical Co Ltd 画像処理方法
WO2016121811A1 (ja) * 2015-01-29 2016-08-04 富士フイルム株式会社 画像処理装置及び画像処理方法、並びに内視鏡システム
WO2017057414A1 (ja) * 2015-09-28 2017-04-06 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
WO2017057572A1 (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
WO2017057573A1 (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
WO2018020558A1 (ja) * 2016-07-25 2018-02-01 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
WO2018159363A1 (ja) * 2017-03-01 2018-09-07 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2018159461A1 (ja) * 2017-03-03 2018-09-07 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
WO2019087971A1 (ja) * 2017-10-30 2019-05-09 富士フイルム株式会社 医療画像処理装置、及び、内視鏡装置
WO2019087790A1 (ja) * 2017-10-31 2019-05-09 富士フイルム株式会社 検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラム
WO2019123986A1 (ja) * 2017-12-22 2019-06-27 富士フイルム株式会社 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3823494C2 (de) * 1988-07-11 1997-11-27 En Versorgung Schwaben Ag Verfahren und Vorrichtung zur Feuerungsdiagnose und dessen Ergebnisse verwendende Feuerungsregelung
JPH08305855A (ja) * 1995-05-01 1996-11-22 Nippon Telegr & Teleph Corp <Ntt> 画像のパターン認識方法及び装置
JPH08249300A (ja) * 1995-03-13 1996-09-27 Minolta Co Ltd ニューラルネットワーク及びその作成方法
JP2003126045A (ja) * 2001-10-22 2003-05-07 Olympus Optical Co Ltd 診断支援装置
EP1394715A1 (en) 2002-08-02 2004-03-03 Europroteome AG An expert system for clinicial outcome prediction
JP2004188026A (ja) * 2002-12-12 2004-07-08 Olympus Corp 情報処理装置
US7538761B2 (en) * 2002-12-12 2009-05-26 Olympus Corporation Information processor
CA2529929A1 (en) * 2003-06-25 2005-01-06 Siemens Medical Solutions Usa, Inc. Systems and methods for automated diagnosis and decision support for breast imaging
JP2005124755A (ja) * 2003-10-22 2005-05-19 Olympus Corp 内視鏡用画像処理装置
JP4451460B2 (ja) * 2007-03-16 2010-04-14 オリンパス株式会社 内視鏡診断支援装置
JP5738720B2 (ja) 2011-03-24 2015-06-24 日本メナード化粧品株式会社 メラニン合成能力評価方法及び美容アドバイス方法並びにそれらを用いるメラニン合成能力評価システム及び美容アドバイスシステム
JP6027803B2 (ja) * 2012-07-17 2016-11-16 Hoya株式会社 画像処理装置及び内視鏡装置
JP6027065B2 (ja) 2014-08-21 2016-11-16 富士フイルム株式会社 類似画像検索装置、類似画像検索装置の作動方法、および類似画像検索プログラム
JP6580446B2 (ja) 2015-10-09 2019-09-25 サイバネットシステム株式会社 画像処理装置及び画像処理方法
WO2019142243A1 (ja) * 2018-01-16 2019-07-25 オリンパス株式会社 画像診断支援システムおよび画像診断支援方法
WO2019230302A1 (ja) 2018-05-28 2019-12-05 富士フイルム株式会社 学習データ収集装置、学習データ収集方法及びプログラム、学習システム、学習済みモデル、並びに内視鏡画像処理装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155840A (ja) * 1998-11-18 2000-06-06 Olympus Optical Co Ltd 画像処理方法
WO2016121811A1 (ja) * 2015-01-29 2016-08-04 富士フイルム株式会社 画像処理装置及び画像処理方法、並びに内視鏡システム
WO2017057414A1 (ja) * 2015-09-28 2017-04-06 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
WO2017057572A1 (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
WO2017057573A1 (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
WO2018020558A1 (ja) * 2016-07-25 2018-02-01 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
WO2018159363A1 (ja) * 2017-03-01 2018-09-07 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2018159461A1 (ja) * 2017-03-03 2018-09-07 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
WO2019087971A1 (ja) * 2017-10-30 2019-05-09 富士フイルム株式会社 医療画像処理装置、及び、内視鏡装置
WO2019087790A1 (ja) * 2017-10-31 2019-05-09 富士フイルム株式会社 検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラム
WO2019123986A1 (ja) * 2017-12-22 2019-06-27 富士フイルム株式会社 医療画像処理装置及び方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102253398B1 (ko) * 2020-11-19 2021-05-18 주식회사 웨이센 인공지능 기반의 영상 처리 및 사용자 이벤트를 통한 사용자 인터페이스 제공 방법 및 해당 방법을 이용하는 영상 수신 장치
WO2022114357A1 (ko) * 2020-11-25 2022-06-02 주식회사 아이도트 영상 병변 진단 시스템
KR102268771B1 (ko) * 2020-11-26 2021-06-24 주식회사 웨이센 인공지능 기반의 영상 처리를 통한 사용자 인터페이스 제공 방법 및 해당 방법을 이용하는 영상 수신 장치
WO2022168412A1 (ja) * 2021-02-05 2022-08-11 株式会社日立製作所 画像処理装置、画像処理方法及びプログラム
JP7413295B2 (ja) 2021-02-05 2024-01-15 株式会社日立製作所 画像処理装置、画像処理方法及びプログラム
WO2023032317A1 (ja) * 2021-09-02 2023-03-09 ソニーグループ株式会社 プログラム、情報処理装置、情報処理方法
KR102672710B1 (ko) * 2023-07-06 2024-06-05 주식회사 서르 내시경 영상 합성 장치 및 합성 방법

Also Published As

Publication number Publication date
JP2020089710A (ja) 2020-06-11
JP7155330B2 (ja) 2022-10-18
JP6877486B2 (ja) 2021-05-26
DE112019006011T5 (de) 2021-09-09
JP2020089711A (ja) 2020-06-11
JP6872581B2 (ja) 2021-05-19
JP7015275B2 (ja) 2022-02-02
JP2021119996A (ja) 2021-08-19
CN112399816B (zh) 2024-01-05
CN112399816A (zh) 2021-02-23

Similar Documents

Publication Publication Date Title
JP6872581B2 (ja) 情報処理装置、内視鏡用プロセッサ、情報処理方法およびプログラム
WO2020116115A1 (ja) 情報処理装置およびモデルの生成方法
Leenhardt et al. A neural network algorithm for detection of GI angiectasia during small-bowel capsule endoscopy
WO2010082246A1 (ja) 情報処理装置および情報処理方法
JP5628927B2 (ja) 医療情報表示装置および方法、並びにプログラム
JP5502346B2 (ja) 症例画像登録装置、方法およびプログラムならびに症例画像検索装置、方法、プログラムおよびシステム
CN113538313A (zh) 一种息肉分割方法、装置、计算机设备及存储介质
WO2020195807A1 (ja) 内視鏡用プロセッサ、情報処理装置、プログラム、情報処理方法および学習モデルの生成方法
JP5094775B2 (ja) 症例画像検索装置、方法およびプログラム
US10430905B2 (en) Case search device and method
EP4318335A1 (en) Electrocardiogram analysis assistance device, program, electrocardiogram analysis assistance method, electrocardiogram analysis assistance system, peak estimation model generation method, and segment estimation model generation method
US20240164691A1 (en) Electrocardiogram analysis assistance device, program, electrocardiogram analysis assistance method, and electrocardiogram analysis assistance system
JP2006149654A (ja) 眼底の病変についての診断の支援
JP6448588B2 (ja) 医療診断支援装置、医療診断支援システム、情報処理方法及びプログラム
CN116128784A (zh) 一种图像处理方法、装置、存储介质及终端
US11776121B2 (en) Method and apparatus for providing information needed for diagnosis of lymph node metastasis of thyroid cancer
US20230274421A1 (en) Method for providing information about diagnosis of gallbladder polyp and device for providing information about diagnosis of gallbladder polyp using same
EP4365909A1 (en) Skin cancer diagnosis method based on image analysis using artificial intelligence
KR20230055874A (ko) 표재성 담낭 질환에 대한 정보 제공 방법 및 이를 이용한 디바이스
Kumar et al. A Novel Approach for Breast Cancer Detection by Mammograms
KR20220143184A (ko) 인공지능 기반 담낭암 진단 방법
JP2020099539A (ja) 肺画像処理プログラム、肺画像処理方法および肺画像処理システム
CN117059263A (zh) 基于双视图胸片的肺动脉高压发生概率的确定方法及系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6872581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250