JP7203000B2 - プログラム、情報処理方法及び情報処理装置 - Google Patents

プログラム、情報処理方法及び情報処理装置 Download PDF

Info

Publication number
JP7203000B2
JP7203000B2 JP2019204969A JP2019204969A JP7203000B2 JP 7203000 B2 JP7203000 B2 JP 7203000B2 JP 2019204969 A JP2019204969 A JP 2019204969A JP 2019204969 A JP2019204969 A JP 2019204969A JP 7203000 B2 JP7203000 B2 JP 7203000B2
Authority
JP
Japan
Prior art keywords
information
learning models
output
support information
diagnostic support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019204969A
Other languages
English (en)
Other versions
JP2021074404A (ja
Inventor
明彦 西出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2019204969A priority Critical patent/JP7203000B2/ja
Priority to US17/615,979 priority patent/US20220327707A1/en
Priority to PCT/JP2020/040092 priority patent/WO2021095500A1/ja
Publication of JP2021074404A publication Critical patent/JP2021074404A/ja
Application granted granted Critical
Publication of JP7203000B2 publication Critical patent/JP7203000B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Description

本技術は、プログラム、情報処理方法及び情報処理装置に関する。
内視鏡画像等の医用画像から、学習モデルを使用して病変部位を自動的に検出するコンピュータ支援診断技術が開発されている。病変部位を含む内視鏡画像に正解ラベルが付与された訓練データを用いた機械学習により、学習モデルを生成する手法が知られている(例えば、特許文献1)。
国際公開第2017/175282号
生成された学習モデルは、それ以降に再学習がされる場合があり、再学習された学習モデルは、当初の学習モデルから変更された学習モデルであり、当初の学習モデルとは異なる結果を出力することが想定されるところ、特許文献1に記載の学習モデルは、再学習の前後の学習モデルから出力される結果の差異に関する考慮がされていない。
一つの側面では、診断支援に関する情報を出力する学習モデルが変更された場合であっても、当該学習モデルの変更による影響を把握することができるプログラム等を提供することを目的とする。
本開示の一態様におけるプログラムは、コンピュータに、内視鏡によって撮影された内視鏡画像を取得し、前記内視鏡画像に含まれる病変に関する診断支援情報を出力するように学習された複数の学習モデルに、取得した前記内視鏡画像を入力し、前記複数の学習モデル夫々から出力された複数の診断支援情報を取得し、取得した前記複数の診断支援情報と、前記複数の学習モデル夫々に関する情報とを関連付けて出力する処理を実行させる。
本開示の一態様におけるプログラムは、コンピュータに、内視鏡によって撮影された内視鏡画像を取得し、前記内視鏡画像に含まれる病変に関する診断支援情報を出力するように学習された学習モデルに、取得した前記内視鏡画像を入力し、前記学習モデル上で複数の診断論理を実行させて、出力された複数の診断支援情報を取得し、取得した前記複数の診断支援情報と、複数の学習モデル夫々に関する情報とする前記学習モデル上で実行した複数の診断論理夫々に関する情報とを関連付けて出力する処理を実行させる。
本開示の一態様における情報処理方法は、内視鏡によって撮影された内視鏡画像を取得し、前記内視鏡画像に含まれる病変に関する診断支援情報を出力するように学習された複数の学習モデルに、取得した前記内視鏡画像を入力し、前記複数の学習モデル夫々から出力された複数の診断支援情報を取得し、取得した前記複数の診断支援情報と、前記複数の学習モデル夫々に関する情報とを関連付けて出力する処理をコンピュータに実行させる。
本開示の一態様における情報処理装置は、内視鏡によって撮影された内視鏡画像を取得する取得部と、前記内視鏡画像に含まれる病変に関する診断支援情報を出力するように学習された複数の学習モデルに、取得した前記内視鏡画像を入力する入力部と、前記複数の学習モデル夫々から出力された複数の診断支援情報を取得し、取得した前記複数の診断支援情報と、前記複数の学習モデル夫々に関する情報とを関連付けて出力する出力部とを備える。もしくは1つの学習モデルで複数の診断論理(logic)の診断支援情報を出力し、取得した前記複数の診断支援情報に関する情報とを関連付けて出力する出力部とを備える。
本開示によれば、診断支援に関する情報を出力する学習モデルが変更された場合であっても、当該学習モデルの変更による影響を把握することができるプログラム等を提供することができる。
実施形態1に係る診断支援システムの概要を示す模式図である。 診断支援システムに含まれる内視鏡装置の構成例を示すブロック図である。 診断支援システムに含まれる情報処理装置の構成例を示すブロック図である。 検査結果DBのデータレイアウトを例示する説明図である。 学習モデルの生成処理に関する説明図である。 学習モデル管理DBのデータレイアウトを例示する説明図である。 情報処理装置等の制御部に含まれる機能部を例示する機能ブロック図である。 表示部に出力される画面(診断支援情報の表示画面)の一例を示す説明図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。 実施形態2(現在及び過去の内視鏡画像)に係る情報処理装置等の制御部に含まれる機能部を例示する機能ブロック図である。 表示部に出力される画面(結果表示画面)の一例を示す説明図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。 実施形態3(学習モデルの選択)に係る情報処理装置等の制御部に含まれる機能部を例示する機能ブロック図である。 表示部に出力される画面(学習モデルの選択画面)の一例を示す説明図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。
(実施形態1)
以下、本発明をその実施の形態を示す図面に基づいて詳述する。図1は、実施形態1に係る診断支援システムSの概要を示す模式図である。診断支援システムSは、内視鏡装置10及び、内視鏡装置10と通信可能に接続される情報処理装置6を含む。
内視鏡装置10は、内視鏡の撮影素子によって撮影した画像(撮影画像)を内視鏡用プロセッサ20に伝送し、内視鏡用プロセッサ20によってガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行うことにより、操作者が目視し易い状態にした内視鏡画像を生成する。内視鏡装置10は、生成した内視鏡画像を情報処理装置6に出力(送信)する。内視鏡装置10から送信された内視鏡画像を取得した情報処理装置6は、これら内視鏡画像に基づき、種々の情報処理を行い、診断支援に関する情報を出力する。
内視鏡装置10は、内視鏡用プロセッサ20と、内視鏡40と、表示装置50とを含む。表示装置50は、たとえば液晶表示装置、または、有機EL(Electro Luminescence)表示装置である。
表示装置50はキャスター付きの収容棚16の上段に設置されている。内視鏡用プロセッサ20は、収容棚16の中段に収容されている。収容棚16は、図示を省略する内視鏡検査用ベッドの近傍に配置される。収容棚16は内視鏡用プロセッサ20に接続されたキーボード15を搭載する、引き出し式の棚を有する。
内視鏡用プロセッサ20は、略直方体形状であり、一面にタッチパネル25を備える。タッチパネル25の下部に、読取部28が配置されている。読取部28は、たとえばUSBコネクタ、SD(Secure Digital)カードスロット、またはCD-ROM(Compact Disc Read Only Memory)ドライブ等の、可搬型記録媒体の読み書きを行なう接続用インターフェイスである。
内視鏡40は、挿入部44、操作部43、ユニバーサルコード49およびスコープコネクタ48を有する。操作部43には、制御ボタン431が設けられている。挿入部44は長尺であり、一端が折止部45を介して操作部43に接続されている。挿入部44は、操作部43側から順に軟性部441、湾曲部442および先端部443を有する。湾曲部442は、湾曲ノブ433の操作に応じて湾曲する。挿入部44には、3軸加速度センサ、ジャイロセンサ、地磁気センサ又は磁気コイルセンサ等の物理検出装置が実装され、内視鏡40が被検者の体内に挿入された際、これら物理検出装置からの検出結果を取得するものであってもよい。
ユニバーサルコード49は長尺であり、第一端が操作部43に、第二端がスコープコネクタ48にそれぞれ接続されている。ユニバーサルコード49は、軟性である。スコープコネクタ48は略直方体形状である。スコープコネクタ48には、送気送水用のチューブを接続する送気送水口金36(図2参照)が設けられている。
図2は、診断支援システムSに含まれる内視鏡装置10の構成例を示すブロック図である。制御部21は、本実施の形態のプログラムを実行する演算制御装置である。制御部21には、一または複数のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)又はマルチコアCPU等が使用される。制御部21は、バスを介して内視鏡用プロセッサ20を構成するハードウェア各部と接続されている。
主記憶装置22は、例えば、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、制御部21が行なう処理の途中で必要な情報および制御部21で実行中のプログラムが一時的に保存される。補助記憶装置23は、例えば、SRAM、フラッシュメモリまたはハードディスク等の記憶装置であり、主記憶装置22よりも大容量の記憶装置である。補助記憶装置23には、例えば、取得した撮影画像、生成した内視鏡画像が、中間データとして保存されるものであってもよい。
通信部24は、有線又は無線によりネットワークを介して情報処理装置と通信するための通信モジュール又は通信インターフェイスであり、例えばwifi(登録商標)、 Bluetooth(登録商標)等の狭域無線通信モジュール、又は4G、LTE等の広域無線通信モジュールである。タッチパネル25は、液晶表示パネル等の表示部と、表示部に積層された入力部を含む。
表示装置I/F26は、内視鏡用プロセッサ20と表示装置50とを接続するインターフェイスである。入力装置I/F27は、内視鏡用プロセッサ20とキーボード15等の入力装置とを接続するインターフェイスである。
光源33は、たとえば白色LED、キセノンランプ等の高輝度の白色光源である。光源33は、図示を省略するドライバを介してバスに接続されている。光源33の点灯、消灯および明るさの変更は、制御部21により制御される。光源33から照射した照明光は、光コネクタ312に入射する。光コネクタ312は、スコープコネクタ48と係合し、内視鏡40に照明光を供給する。
ポンプ34は、内視鏡40の送気・送水機能用の圧力を発生させる。ポンプ34は、図示を省略するドライバを介してバスに接続されている。ポンプ34のオン、オフおよび圧力の変更は、制御部21により制御される。ポンプ34は、送水タンク35を介して、スコープコネクタ48に設けられた送気送水口金36に接続される。
内視鏡用プロセッサ20に接続された内視鏡40の機能の概略を説明する。スコープコネクタ48、ユニバーサルコード49、操作部43および挿入部44の内部に、ファイバーバンドル、ケーブル束、送気チューブおよび送水チューブ等が挿通されている。光源33から出射した照明光は、光コネクタ312およびファイバーバンドルを介して、先端部443に設けられた照明窓から放射される。照明光により照らされた範囲を、先端部443に設けられた撮像素子で撮影する。撮像素子からケーブル束および電気コネクタ311を介して内視鏡用プロセッサ20に撮影画像が伝送される。
内視鏡用プロセッサ20の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部211として機能する。画像処理部211は、内視鏡40から出力された画像(撮影画像)をガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、内視鏡画像として出力する。
図3は、診断支援システムSに含まれる情報処理装置6の構成例を示すブロック図である。情報処理装置6は、制御部62、通信部61、記憶部63及び入出力I/F64を含む。情報処理装置6は、例えばサーバ装置、パーソナルコンピュータ等である。サーバ装置は、単体のサーバ装置のみならず、複数台のコンピュータによって構成されるクラウドサーバ装置、又は仮想サーバ装置を含む。情報処理装置6は、内視鏡用プロセッサ20からアクセス可能な外部ネットワーク上に位置するクラウドサーバとして設けられているものであってもよい。
制御部62は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の計時機能を備えた演算処理装置を有し、記憶部63に記憶されたプログラムPを読み出して実行することにより、情報処理装置6に係る種々の情報処理、制御処理等を行う。又は、制御部62は量子コンピュータ用チップで構成されており、情報処理装置6は量子コンピュータであってもよい。
記憶部63は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の揮発性記憶領域及び、EEPROM又はハードディスク等の不揮発性記憶領域を含む。記憶部63には、プログラムP及び処理時に参照するデータがあらかじめ記憶してある。記憶部63に記憶されたプログラムPは、情報処理装置6が読み取り可能な記録媒体632から読み出されたプログラムPを記憶したものであってもよい。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラムPをダウンロードし、記憶部63に記憶させたものであってもよい。記憶部63には、後述する複数の学習モデル91夫々を構成する実体ファイル(ニューラルネットワーク(NN)のインスタンスファイル)が保存されている。これら実体ファイルは、プログラムPの一部位として構成されるものであってもよい。記憶部63には、後述する検査結果DB631(DataBase)、学習モデル管理DB630が記憶されているものであってもよい。
通信部61は、有線又は無線により、内視鏡装置10と通信するための通信モジュール又は通信インターフェイスであり、例えばwifi(登録商標)、 Bluetooth(登録商標)等の狭域無線通信モジュール、又は4G、LTE等の広域無線通信モジュールである。
入出力I/F64は、例えば、USB又はDSUB等の通信規格に準拠したものであり、入出力I/F64に接続された外部機器とシリアル通信するための通信インターフェイスである。入出力I/F64には、例えばディプレイ等の表示部7、キーボード等の入力部8が接続されており、制御部62は、入力部8から入力された実行コマンド又はイベントに基づき行った情報処理の結果を表示部7に出力する。
図4は、検査結果DB631のデータレイアウトを例示する説明図である。検査結果DB631は、情報処理装置6の記憶部63に記憶されており、情報処理装置6に実装されているRDBMS(Relational DataBase Management System)等のデータベース管理ソフトウェアにより構成される。情報処理装置6は、内視鏡用プロセッサ20が出力した内視鏡画像、検査日時及び被検者の属性情報を取得し、検査結果DB631に登録するものであってもよい。
検査結果DB631は、例えば、被検者マスタテーブル及び画像テーブルを含み、被検者マスタテーブルと画像テーブルとは、両テーブルに共に含まれる項目(メタデータ)である被検者IDにより、関連付けが設定されている。
被検者マスタテーブルは、管理項目(メタデータ)として、例えば、被検者ID、性別、生年月日、年齢を含む。被検者IDの項目(フィールド)には、内視鏡検査を受けた被検者を一意に特定するためにID情報が格納される。性別及び生年月日の項目(フィールド)には、当該被検者IDの性別及び生年月日の生体属性が格納され、年齢の項目(フィールド)には、生年月日により算出される現時点における年齢が格納される。これら、性別、年齢は、被検者の生体情報として、被検者マスタテーブルにより管理される。
画像テーブルは、管理項目(メタデータ)として、例えば、被検者ID、検査日時、内視鏡画像を含む。被検者IDの項目(フィールド)には、被検者マスタテーブルに管理される被検者の生体属性と関連付けをするためのものであり、当該被検者夫々のIDの値が格納される。検査日時の項目(フィールド)には、当該被検者IDの被検者が内視鏡検査を受けた日時が格納される。内視鏡画像の項目(フィールド)には、当該被検者IDの内視鏡画像がオブジェクトデータとして格納される。内視鏡画像は、1フレームによる静止画又は、数フレームによる動画であってもよい。内視鏡画像の項目(フィールド)には、ファイルとして保存されている当該内視鏡画像の保存場所(ファイルパス)を示す情報が格納されるものであってもよい。
図5は、学習モデル91の生成処理に関する説明図である。学習モデル91の生成処理に関する説明図である。情報処理装置6は、内視鏡画像を問題データとし、病変の有無、病変の症状の種類、病変の症状のステージ及び病変の場所等の少なくとも1つを含む診断支援情報を回答データとする訓練データに基づき学習することで、内視鏡画像を入力し、病変の有無等を含む診断支援情報を出力とするニューラルネットワークを構築(生成)する。内視鏡画像には、例えば病変が疑われる体内部位が含まれる。病変の有無、症状の種類、症状のステージ及び、病変の場所は、内視鏡画像に含まれる体内部位に関する病変の有無、症状の種類、症状のステージ及び、病変の場所に関する情報である。
訓練データを用いて学習されたニューラルネットワーク(学習モデル91)は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用が想定される。学習モデル91は、上述のごとく制御部62(CPU等)及び記憶部63を備える情報処理装置6にて用いられるものであり、このように演算処理能力を有する情報処理装置6にて実行されることにより、ニューラルネットワークシステムが構成される。すなわち、情報処理装置6の制御部62が、記憶部63に記憶された学習モデル91からの指令に従って、入力層に入力された内視鏡画像の特徴量を抽出する演算を行い、出力層から病変の有無等を含む診断支援情報を出力するように動作する。
入力層は、内視鏡画像の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値及び距離情報を中間層に受け渡す。中間層は、内視鏡画像の画像特徴量を抽出する複数のニューロンを有し、抽出した画像特徴量を出力層に受け渡す。出力層は、病変の有無及び症状のステージに関する情報を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量に基づいて、病変の有無及び症状のステージに関する情報を出力する。例えば学習モデル91がCNN(Convolutional Neural Network)である場合、中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピング(圧縮)するプーリング層とが交互に連結された構成を有し、内視鏡画像の画素情報を圧縮しながら最終的に内視鏡画像の特徴量を抽出する。出力層は、当該内視鏡画像に含まれる体内部位における病変の有無等のに関する情報を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量等に基づいて、病変の有無等のに関する情報を出力する。出力された病変の有無等に関する情報は、内視鏡を操作する医師等により診断支援情報として用いられる情報である。
本実施形態では、学習モデル91に入力されるデータは、内視鏡画像であるとして説明しているがこれに限定されない。学習モデル91に入力されるデータは、内視鏡の撮像素子が撮像した撮影画像(生画像)であってもよい。すなわち、学習モデル91は、撮影画像が入力されることにより、病変の有無等に関する情報を出力するものであってもよい。
本実施形態では学習モデル91がCNN等のニューラルネットワーク(NN)であるとして説明するが、学習モデル91は、NNに限定されず、SVM(Support Vector Machine)、ベイジアンネットワーク、回帰木など、他の学習アルゴリズムで構築された学習モデル91であってもよい。又は、CNNの代わりに、RCNN(Regions with Convolutional Neural Network)、Fast RCNN、Faster RCNNまたはSSD(Single Shot Multibook Detector)、YOLO(You Only Look Once)等の、任意の物体検出アルゴリズムを使用しても良い。
情報処理装置6は、出力層から出力された値を、問題データ(内視鏡画像)に対し、ラベル付けされた情報(病変の有無、症状の種類及び症状のステージ)、すなわち正解値(回答データ)と比較し、出力層からの出力値が正解値に近づくように、中間層での演算処理に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)、各ニューロンで用いられる活性化関数の係数などである。パラメータの最適化の方法は特に限定されないが、例えば情報処理装置6は、誤差逆伝播法を用いて各種パラメータの最適化を行う。情報処理装置6は、訓練データに含まれる内視鏡画像について上記の処理を行い、学習モデル91を生成し、生成した学習モデル91を記憶部63に記憶する。
訓練データとして用いられる内視鏡画像(問題データ)と、これら情報に相関を有する病変の有無等に関する情報(回答データ)は、各医療機関において行われた内視鏡検査の結果データとして大量に保存されており、これら結果データを用いることにより、学習モデル91を学習するための訓練データを大量に生成することができる。
内視鏡画像を入力することにより、病変の有無等を出力する学習モデル91は、例えば、異なる訓練データを用いて学習させることにより、複数個、生成される。上述のとおり、訓練データを構成する内視鏡画像(問題データ)及び、病変の有無等に関する情報(回答データ)によるデータセットは、各医療機関において日々、蓄積されていく。蓄積されたデータセットにより、最新の訓練データを構成し、当該最新の訓練データによって、既に存在している(生成されている)学習モデル91が、再学習される場合がある。このような再学習により、例えば同一の層構成及び活性化関数を用いたニューラルネットワークであっても、訓練データが異なるものとなるため、出力結果が若干異なる複数の学習モデル91が、生成されるものとなる。すなわち、訓練データが、例えば一か月程度での周期にて更新される場合、当該更新時点に応じた複数の訓練データが、バージョン違いとして構成されるものとなる。このようにバージョン違いとして構成された訓練データ夫々を用いて学習させることにより、当該バージョンに対応した複数の学習モデル91を生成することができる。
複数の学習モデル91を生成するにあたり、同一の層構成及び活性化関数を用いたニューラルネットワークに異なる訓練データを用いて学習するとしたが、これに限定されない。同一の訓練データを用いて、層構成又は活性化関数等の構成形態を異ならせたニューラルネットワークに学習させ、複数の学習モデル91を生成するものであってもよい。又は、異なる訓練データを用いて、層構成又は活性化関数等の構成形態を異ならせたニューラルネットワークに学習させ、複数の学習モデル91を生成するものであってもよい。
図6は、学習モデル管理DB630のデータレイアウトを例示する説明図である。学習モデル管理DB630は、管理項目(メタデータ)として、例えば、学習モデル名、バージョン番号、適用日、変更点、累計使用回数を含む。
学習モデル名の項目(フィールド)には、例えば、複数の学習モデル91夫々を識別するためのモデル名が格納される。バージョン番号の項目(フィールド)には、例えば、学習モデル91を生成するために用いられた訓練データのバージョン番号が、格納される。又は、学習モデル91自体のバージョン番号が、格納されるものであってもよい。
適用日の項目(フィールド)には、例えば、生成された学習モデル91が診断支援システムSに適用され(組み込まれ)、診断支援システムSにおいて当該学習モデル91の利用が可能となった日が格納される。医師等の内視鏡の操作者は、学習モデル91夫々の適用日を参照することにより、今日に至るまでの学習モデル91の適用期間を把握することができる。
変更点の項目(フィールド)には、例えば、前バージョンの学習モデル91と比較した変更点に関する事項が格納される。医師等の内視鏡の操作者は、変更点を参照することにより、複数の学習モデル91における沿革に関する事項を把握することができる。
累計使用回数の項目(フィールド)には、例えば、現時点までにおける学習モデル91毎の累計使用回数が格納される。医師等の内視鏡の操作者は、累計使用回数を参照することにより、複数の学習モデル91夫々における使用実績又は人気度を把握することができる。
図7は、情報処理装置6等の制御部62に含まれる機能部を例示する機能ブロック図である。内視鏡用プロセッサ20(内視鏡装置10)の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部211として機能する。情報処理装置6の制御部62は、記憶部63に記憶されているプログラムPを実行することにより、取得部621、出力部622として機能する。また、制御部62は、記憶部63に記憶されているプログラムPを実行することにより、又は複数の学習モデル91夫々(NN-1、NN-2~NN-5)を構成する実体ファイル夫々を読み出すことにより、複数の学習モデル91として機能する。
画像処理部211は、内視鏡から出力された画像(撮影画像)をガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、内視鏡画像として出力する。画像処理部211は、生成した内視鏡画像を情報処理装置6に出力(送信)する。画像処理部211は、更にキーボード15から入力された被検者IDを情報処理装置6に出力するものであってもよい。
取得部621は、内視鏡用プロセッサ20が出力した内視鏡画像を取得し、取得した内視鏡画像を複数の学習モデル91夫々に出力する。取得部621は、被検者IDを内視鏡用プロセッサ20から取得した場合、当該被検者IDと内視鏡画像とを関連付けて、検査日時に関する情報と共に検査結果DB631に登録するものであってもよい。
複数の学習モデル91夫々は、互いに並列となるように接続されている。従って、取得部621から出力された内視鏡画像が並列に接続された学習モデル91夫々に分岐されて入力されるデータフロー・トポロジーが、形成される。複数の学習モデル91は、学習モデル管理DB630において登録及び管理されている学習モデル91であり、同一の内視鏡画像が入力されることにより、内視鏡画像における病変の有無等を含む同種の診断支援情報を出力する。複数の学習モデル91は、例えば異なる訓練データによって学習されており、同一の内視鏡画像を入力した場合であっても、異なる演算結果(病変の有無等)を出力する場合がある。複数の学習モデル91夫々は、取得部621から出力された内視鏡画像を入力層に入力し、出力層から出力された病変の有無等を含む診断支援情報を出力部622に出力する。
出力部622は、複数の学習モデル91夫々から出力された診断支援情報を取得すると共に、学習モデル管理DB630を参照し、診断支援情報を出力した学習モデル91夫々に関する変更点等の管理情報を取得する。出力部622は、取得した病変の有無等を含む診断支援情報と、当該診断支援情報を出力した学習モデル91とを関連付け、更に学習モデル91夫々における管理情報を付随させて、診断支援情報の表示画面を構成するための画面データを生成する。出力部622は、生成した診断支援情報の表示画面を構成するための画面データを表示部7に出力させ、当該表示部7に診断支援情報の表示画面を表示させる。出力部622は、生成した診断支援情報の表示画面を構成するための画面データを内視鏡装置に出力し、内視鏡装置に接続されている表示装置に当該表示画面を表示させるものであってもよい。
本実施形態において、一連の処理における各機能部を、内視鏡用プロセッサ20の制御部21による機能部夫々と、情報処理装置6の制御部62による機能部夫々とに分けて説明したが、これら機能部の分担は一例であり、これに限定されない。内視鏡用プロセッサ20の制御部21は、学習モデル91も含め、情報処理装置6の制御部62によって行われる全ての機能部として、機能するものであってもよい。すなわち、内視鏡用プロセッサ20が、実質的に情報処理装置6を含むものであってもよい。または、内視鏡用プロセッサ20の制御部21は、撮像素子が撮像した撮影画像を出力するのみであり、情報処理装置6の制御部62は、以降の処理を行う全ての機能部として機能するものであってもよい。または、内視鏡用プロセッサ20の制御部21と、情報処理装置6の制御部62とは、例えばプロセス間通信を行うことにより、協働して一連の処理における各機能部として機能するものであってもよい。
図8は、表示部に出力される画面(診断支援情報の表示画面)の一例を示す説明図である。情報処理装置6は、出力部622から出力された診断支援情報の表示画面を構成するための画面データにより、診断支援情報の表示画面を表示部7にて表示する。
診断支援情報の表示画面は、学習モデル91夫々に関する情報(管理情報)を表示する領域と、入力された内視鏡画像及び、当該内視鏡画像に基づく診断支援情報を表示する領域とを含む。
学習モデル91の領域には、学習モデル名を示す表示フィールド、バージョンを示す表示フィールド、適用日を示す表示フィールド、変更点を示す表示フィールドが配置されている。これら表示フィールド夫々は、内視鏡画像が入力された学習モデル91の個数に応じて生成され、本実施形態では、一例として5つの学習モデル91を用いて、当該表示フィールド夫々を列挙して診断支援情報の表示画面を構成している。これら表示フィールド夫々にて表示されている内容は、学習モデル管理DB630に登録されている学習モデル91夫々の管理情報である。
内視鏡画像の領域には、内視鏡画像を表示する表示フィールド、学習モデル91夫々による出力結果(診断支援情報)を表示する表示フィールドが、列挙して配置されている。診断支援情報の表示画面において、被検者ID等の被検者に関する情報及び、検査日時に関する情報が、含まれるものであってもよい。
同一の内視鏡画像に対する複数の学習モデル91による出力結果(病変の有無等の診断支援情報)を、横並びにして表示することにより、医師等の内視鏡の操作者に対し、多面的な診断支援情報を提供することができる。複数の学習モデル91が、例えば異なる時点にて構成された訓練データにより学習されたものである場合、学習モデル91夫々における時系列の変化に応じた複数の診断支援情報を、医師等に提供することができる。
これら複数の学習モデル91を論理的に並列に接続するデータフロー・トポロジーを構成することにより、内視鏡装置から出力された内視鏡画像を分岐して学習モデル91夫々に効率的に入力することができる。従って、これら複数の学習モデル91夫々に、個別に内視鏡画像を入力する場合と比較して、内視鏡画像を入力するための処理工数を低減することができ、診断支援システムSに含まれる(診断支援システムSにて適用されている)学習モデル91の個数が多数となる場合であっても、効率的に対応することができる。
図9は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
情報処理装置6の制御部62は、内視鏡プロセッサから出力された内視鏡画像を取得する(S101)。制御部62が内視鏡プロセッサから取得する内視鏡画像は、静止画又は動画であってもよい。制御部62は、内視鏡画像の取得に併せて、被検者ID等の被検者の属性情報を取得するものであってもよい。
情報処理装置6の制御部62は、内視鏡画像を複数の学習モデル91に入力する(S102)。複数の学習モデル91夫々は、内視鏡画像が入力されることにより、病変の有無等を含む同種の診断支援情報を出力するように学習されている。制御部62は、内視鏡プロセッサから取得した内視鏡画像を、これら複数の学習モデル91夫々に入力する。
情報処理装置6の制御部62は、複数の学習モデル91夫々から、内視鏡画像に含まれる病変の有無等の診断支援情報を取得する(S103)。内視鏡画像が入力された複数の学習モデル91夫々は、病変の有無等を含む同種の診断支援情報を出力する。制御部62は、複数の学習モデル91夫々から出力された当該診断支援情報夫々を取得する。
情報処理装置6の制御部62は、診断支援情報と学習モデル91夫々に関する情報とを関連付けて出力する(S104)。制御部62は、記憶部63に記憶されている学習モデル管理DB630を参照し、学習モデル91夫々のバージョン番号等の管理情報を取得する。制御部62は、学習モデル管理DB630を参照して取得した学習モデル91夫々の管理情報と、学習モデル91夫々が出力した診断支援情報夫々とを関連付けて、例えば一覧形式の表示画面となる画面データを表示部7に出力する。
本実施形態によれば、同種の診断支援情報を出力する複数の学習モデル91に、内視鏡画像を入力することにより、複数の学習モデル91夫々から出力される複数の診断支援情報を取得するため、同一の内視鏡画像に対し、複数の学習モデル91毎の診断支援情報を取得することができる。取得した診断支援情報夫々は、当該診断支援情報を出力したいずれかの学習モデル91に関する情報と関連付けて出力されるため、医師等の内視鏡40の操作者は、診断支援情報と学習モデル91とが関連付けられた出力結果を参照することにより、学習モデルの変更による影響を容易に把握することができる。
本実施形態によれば、複数の学習モデル91夫々に関する情報は、複数の学習モデル91同士における、例えば診断閾値、検出重み付け係数又は訓練データ等の差異に関する情報を含む。従って、医師等の内視鏡40の操作者は、診断支援情報と学習モデル91とが関連付けられた出力結果を参照することにより、学習モデル91の変更内容及び当該変更内容による診断支援情報への影響を容易に把握することがきる。
本実施形態によれば、複数の学習モデル91の内の少なくとも2つの学習モデル91は、同じ層構成のニューラルネットワークに対し異なる訓練データにて学習させて生成する。従って、例えば、いずれかの学習モデル91が再学習された場合、再学習前の学習モデル91が出力した診断支援情報と、再学習後の学習モデル91が出力した診断支援情報との差異に関する情報を医師等に効率的に提供することができる。
本実施形態において、情報処理装置6の制御部62は、複数の学習モデル91に、取得した内視鏡画像を入力し、複数の学習モデル91夫々から出力された複数の診断支援情報を取得し、取得した複数の診断支援情報と、複数の学習モデル91夫々に関する情報とを関連付けて出力するとしたが、これに限定されない。情報処理装置6の制御部62は、単一の学習モデル91に、取得した前記内視鏡画像を入力し、単一の学習モデル91上で複数の診断論理を順次に実行させて、出力された複数の診断支援情報を取得し、学習モデル91上で実行した複数の診断論理夫々に関する情報を、複数の学習モデル91夫々に関する情報とし、取得した複数の診断支援情報と、複数の学習モデル91夫々に関する情報とを関連付けて出力するものであってもよい。学習モデル91上で実行した複数の診断論理夫々に関する情報は、複数の学習モデル91夫々に関する情報と同義であり、情報処理装置6の制御部62は、学習モデル91上で実行した複数の診断論理夫々に関する情報と、取得した複数の診断支援情報とを関連付けて出力するものであってもよい。
この場合、単一の学習モデル91に対し、例えば、学習前の設定1のXX月XX日XX時XX分XX秒のネットワーク設定状態(各ノードの接続状態、設定値)、学習後の直後の設定2(設定1よりも以降の時点)のYY月YY日YY時YY分YY秒のネットワーク設定状態、及び学習後の更に後の設定3(設定2より以降の時点)のZZ月ZZ日ZZ時ZZ分ZZ秒のネットワーク設定状態を、学習モデル91(ニューラルネットワーク)から参照(アクセス)可能な記憶部63等の所定の記憶領域に全部記憶しておき、又は学習モデル91内のデータとして全部記憶しておき、時系列で設定1から3を切換えて判定結果を出力させ、当該判定結果夫々を取得するものであってよい。当該複数の設定に基づき、複数の診断論理が、単一の学習モデル91上にて実行されるものとなる。
このように単一(同一)の学習モデル91に対し、異なる複数の設定(設定1から3)を時系列で切替え可能とすることにより、当該異なる複数の設定夫々により実行される複数の診断論理夫々に基づいた判定結果を、単一(同一)の学習モデル91から順次に取得することができる。従って、少ないハードウェア、すなわち制御部62の処理能力又は記憶部63の記憶容量等のハードウェアリソースが増大することを抑制しつつ、1個のニューラルネットワーク(学習モデル91)で複数のニューラルネットワーク(学習モデル91)相当の働きをさせることができる。
(実施形態2)
図10は、実施形態2(現在及び過去の内視鏡画像)に係る情報処理装置6等の制御部62に含まれる機能部を例示する機能ブロック図である。実施形態2の情報処理装置6は、所定期間を経て撮影された同じ被検者の複数の内視鏡画像を、複数の学習モデル91に入力する点で実施形態1と異なる。
内視鏡用プロセッサ20(内視鏡装置10)の制御部21は、キーボード15又はタッチパネル25から入力された被検者IDを、実施形態1と同様に内視鏡画像と共に情報処理装置6に出力する。
取得部621は、内視鏡用プロセッサ20が出力した被検者ID及び内視鏡画像を取得する。取得部621は、取得した被検者IDを検索条件(抽出条件)として、検査結果DB631から、当該被検者IDによる過去の内視鏡画像を検索(抽出)し、取得する。取得部621は、内視鏡用プロセッサ20から取得した内視鏡画像(現在の内視鏡画像)と、検査結果DB631から取得した当該現在の内視鏡画像の被検者と同じ被検者の過去の内視鏡画像とを、実施形態1と同様に複数の学習モデル91夫々に入力する。
複数の学習モデル91夫々は、取得部621から出力された同一の被検者の現在及び過去の内視鏡画像夫々を入力層に入力し、出力層から出力される現在及び過去の内視鏡画像夫々に含まれる病変の有無等に関する診断支援情報夫々を、出力部622に出力する。
出力部622は、複数の学習モデル91夫々から出力された現在及び過去の内視鏡画像夫々に対する診断支援情報夫々を取得すると共に、実施形態1と同様に学習モデル91夫々に関する変更点等の管理情報を取得する。
出力部622は、現在及び過去の内視鏡画像夫々に対し、実施形態1と同様に診断支援情報と、当該診断支援情報を出力した学習モデル91とを関連付け、更に学習モデル91夫々における管理情報を付随させて、診断支援情報の表示画面を構成するための画面データを生成する。出力部622は、実施形態1と同様に当該画面データを表示部7に出力する。
図11は、表示部に出力される画面(結果表示画面)の一例を示す説明図である。情報処理装置6は、出力部622から出力された診断支援情報の表示画面を構成するための画面データにより、診断支援情報の表示画面を表示部7にて表示する。診断支援情報の表示画面は、実施形態1と同様に学習モデル91夫々に関する情報(管理情報)を表示する領域と、入力された内視鏡画像及び、当該内視鏡画像に基づく診断支援情報を表示する領域とを含む。
内視鏡画像の領域は、現在及び過去の内視鏡画像夫々の個数に応じて、例えば複数列により構成されるものであってもよい。内視鏡画像の領域には、内視鏡画像を表示する表示フィールドに加え、当該内視鏡画像を撮影した日時を表示する表示フィールドが列挙して配置されている。このように現在及び過去の内視鏡画像夫々と、当該内視鏡画像を撮影した日時とを表示すると共に、各内視鏡画像に対する複数の学習モデル91夫々から出力された診断支援情報夫々をマトリックス形態にて表示することにより、医師等に効率的に診断支援情報を提供することができる。
過去の内視鏡画像を用いて最新の学習モデル91が出力する診断支援情報を取得すると共に、現時点の内視鏡画像を用いて過去の学習モデル91が出力する診断支援情報を取得することができ、所定期間を経て撮像された複数の内視鏡画像と、適用時期に応じて時系列に変化する複数の学習モデル91により、いわいるクロスサーチを行うことができる。当該クロスサーチにより、時系列にて異なる内視鏡画像夫々及び学習モデル91夫々を用いた複数の診断支援情報を、医師等に効率的に提供することができる。
図12は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
内視鏡プロセッサの制御部62は、被検者IDを取得する(S201)。制御部62は、内視鏡プロセッサから出力された被検者IDを取得する。
内視鏡プロセッサの制御部62は、内視鏡画像(現在の内視鏡画像に相当)を取得する(S202)。制御部62は、実施形態1と同様に内視鏡プロセッサから出力された内視鏡画像(現在の内視鏡画像に相当)を取得する。制御部62は、取得した被検者ID及び現在の内視鏡画像を関連付けて、結果結果DBに登録するものであってもよい。
内視鏡プロセッサの制御部62は、過去の内視鏡画像を取得する(S203)。制御部62は、取得した被検者IDに基づいて、検査結果DB631から当該被検者IDの過去の内視鏡画像を取得する。
内視鏡プロセッサの制御部62は、現在及び過去の内視鏡画像を複数の学習モデル91に入力する(S204)。制御部62は、取得した現在及び過去の内視鏡画像を、実施形態1と同様に複数の学習モデル91夫々に入力する。
内視鏡プロセッサの制御部62は、診断支援情報を取得する(S205)。制御部62は、複数の学習モデル91夫々から出力された現在及び過去の内視鏡画像による診断支援情報夫々を取得する。
内視鏡プロセッサの制御部62は、診断支援情報と学習モデル91夫々に関する情報とを関連付けて出力する(S206)。制御部62は、実施形態1と同様に学習モデル管理DB630から取得した学習モデル91夫々の管理情報と、学習モデル91夫々が出力した現在及び過去の内視鏡画像に対する診断支援情報夫々とを関連付けて、例えばマトリックス形式の表示画面となる画面データを表示部7に出力する。
本実施形態によれば、内視鏡画像は、所定期間を経て撮影された同一の被検者の複数の内視鏡画像を含むため、これら複数の内視鏡画像に対する複数の学習モデル91による診断支援情報を取得することができる。従って、例えば、過去に撮影された内視鏡画像を、複数の学習モデル91に含まれる最新の学習モデルに入力することが可能となり、医師等に更に適切な診断支援情報を提供することができる。
(実施形態3)
図13は、実施形態3(学習モデル91の選択)に係る情報処理装置6等の制御部62に含まれる機能部を例示する機能ブロック図である。実施形態3の情報処理装置6は、診断支援情報を取得するために用いる学習モデル91を選択する操作を受付ける点で実施形態1と異なる。
情報処理装置6の制御部62は、記憶部63に記憶されているプログラムPを実行することにより、実施形態1と同様に取得部621、出力部622として機能し、更に選択受付部623として機能する。
選択受付部623は、記憶部63に記憶されている学習モデル管理DB630を参照し、学習モデル91夫々のバージョン番号等の管理情報を取得する。選択受付部623は、取得した学習モデル91夫々の管理情報に基づき、使用する学習モデル91の選択を受付けるための選択画面(使用する学習モデル91の選択画面)を構成する画面データを生成し、表示部7に出力する。選択受付部623は、当該選択画面上にて、医師等による学習モデル91の選択を受付け、例えば、選択された学習モデル91を区別化するためのフラグ情報(要否フラグ)を生成し、診断支援システムSにて適用されている複数の学習モデル91において、選択された学習モデル91のみを有効とするように設定する。
取得部621は、実施形態1と同様に内視鏡用プロセッサ20が出力した内視鏡画像を取得し、取得した内視鏡画像を選択された学習モデル91夫々に出力する。実施形態1と同様に選択された学習モデル91夫々は、内視鏡画像を取得し、診断支援情報を出力する。又は、取得部621は、内視鏡画像を複数の学習モデル91の全てに出力するものとし、選択受付部623による設定に基づき、選択された学習モデル91(有効な学習モデル91)のみが、当該内視鏡画像を取得して、診断支援情報を出力するものであってもよい。
出力部622は、実施形態1と同様に、選択された学習モデル91夫々から出力された診断支援情報を取得すると共に、学習モデル管理DB630から選択された学習モデル91夫々の管理情報を取得し、診断支援情報の表示画面を構成するための画面データを生成し、表示部7に出力する。
図14は、表示部に出力される画面(学習モデル91の選択画面)の一例を示す説明図である。情報処理装置6は、選択受付部623から出力された使用する学習モデル91の選択画面を構成するための画面データにより、使用する学習モデル91の選択画面を表示部7にて表示する。
使用する学習モデル91の選択画面は、学習モデル名を示す表示フィールド、バージョンを示す表示フィールド、適用日を示す表示フィールド、変更点を示す表示フィールド、累計使用回数を示す表示フィールド及び、学習モデル91を使用するか否かの選択操作の入力を受付ける入力フィールドが配置されている。
これら表示フィールド夫々は、内視鏡画像が入力された学習モデル91の個数に応じて生成され、本実施形態では、一例として5つの学習モデル91を用いて、当該表示フィールド夫々を列挙して、使用する学習モデル91の選択画面を構成している。これら表示フィールド夫々にて表示されている内容は、学習モデル管理DB630に登録されている学習モデル91夫々の管理情報である。
表示フィールド夫々にて表示されている内容に基づき、医師等は、使用を希望する学習モデル91夫々の沿革を把握することができ、更に累計使用回数を参照することにより、学習モデル91夫々の使用実績又は人気度を把握することができる。従って、診断の種類又は被検者に応じた適切な学習モデル91を選択するための情報を、医師等に対し効率的に提供することができる。
選択操作の入力フィールドは、例えばトルグスイッチ、ラジオボタン又はプルダウン等を用いた選択操作の入力を受付ける操作入力部を含み、当該入力部の入力内容に応じて、使用される学習モデル91が選択(特定)される。本実施形態では、一例としてトルグスイッチにより操作入力部が構成され、複数の学習モデル91において、3つの学習モデル91(NN-2,NN-3,NN-5)が選択されている。
医師等により、使用する学習モデル91の選択画面にて入力された内容(複数の学習モデル91の選択)は、選択受付部623によって受付けられて、上述のとおり、選択された学習モデル91が有効となるように設定される。
診断支援システムSにて適用されている複数の学習モデル91を使用するあたり、学習モデル91夫々の適用日、変更点等の沿革に関する情報及び、累計使用回数を医師等に提供することにより、医師等による学習モデル91の選択を支援することができる。選択された学習モデル91が出力した診断支援情報を表示することにより、医師等に対し当該診断支援情報を効率的に提供することができる。
図15は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
内視鏡プロセッサの制御部62は、学習モデル91に関する情報を取得する(S301)。制御部62は、学習モデル管理DB630をから学習モデル91夫々のバージョン番号等の管理情報を取得する。
内視鏡プロセッサの制御部62は、学習モデル91の選択画面を表示する(S302)。制御部62は、取得した学習モデル91夫々の管理情報に基づき、使用する学習モデル91の選択画面を構成する画面データを生成し、表示部7にて当該選択画面を表示する。
内視鏡プロセッサの制御部62は、学習モデル91の選択を受付ける(S303)。制御部62は、使用する学習モデル91の選択画面にて入力された内容に基づき、学習モデル91の選択を受付ける。
内視鏡プロセッサの制御部62は、内視鏡画像を取得する(S304)。制御部62は、実施形態1と同様に内視鏡画像を取得する。制御部62は、実施形態2と同様に現在及び過去の内視鏡画像夫々を取得するものであってもよい。
内視鏡プロセッサの制御部62は、内視鏡画像を複数の学習モデル91の内の選択された学習モデル91に入力する(S305)。制御部62は、取得した内視鏡画像を、複数の学習モデル91の内の選択された学習モデル91に入力する。
内視鏡プロセッサの制御部62は、診断支援情報を取得する(S306)。制御部62は、選択された学習モデル91が出力した診断支援情報を取得する。
内視鏡プロセッサの制御部62は、診断支援情報と選択された学習モデル91夫々に関する情報とを関連付けて出力する(S307)。制御部62は、実施形態1と同様に、診断支援情報と選択された学習モデル91夫々に関する情報とを関連付けて、例えば一覧形式の表示画面となるが画面データを表示部7に出力する。制御部62は、実施形態2と同様に現在及び過去の内視鏡画像を取得した場合、選択された学習モデル91夫々が出力した現在及び過去の内視鏡画像に対する診断支援情報夫々とを関連付けて、例えばマトリックス形式の表示画面となるが画面データを表示部7に出力する。
本実施形態によれば、複数の学習モデル91の内のいずれかの学習モデル91を選択する操作を受付けるため、医師等が、診断支援情報を取得するために用いることを要する単一又は複数の学習モデル91を選択することができる。選択された学習モデル91から出力された診断支援情報と、選択された学習モデル91に関する情報とを関連付けて出力するため、医師等の選択に基づいた学習モデル91によって出力された診断支援情報を、当該医師等に効率的に提供することができる。
本実施形態によれば、複数の学習モデル91の内のいずれかの学習モデル91を選択する操作を受付けるにあたり、複数の学習モデル91夫々の累計使用回数に関する情報を表示する。従って、学習モデル91を選択する医師等に対し、当該学習モデル91夫々の累計使用回数に関する情報を提供し、どの学習モデル91を用いるかの判断を支援するための情報を医師等に効率的に提供することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、特許請求の範囲内での全ての変更及び特許請求の範囲と均等の範囲が含まれることが意図される。
S 診断支援システム
10 内視鏡装置
15 キーボード
16 収容棚
20 内視鏡用プロセッサ
21 制御部
211 画像処理部
22 主記憶装置
23 補助記憶装置
24 通信部
25 タッチパネル
26 表示装置I/F
27 入力装置I/F
28 読取部
31 内視鏡用コネクタ
311電気コネクタ
312光コネクタ
33 光源
34 ポンプ
35 送水タンク
36 送気送水口金
40 内視鏡
43 操作部
431制御ボタン
433湾曲ノブ
44 挿入部
441軟性部
442湾曲部
443先端部
45 折止部
48 スコープコネクタ
49 ユニバーサルコード
50 表示装置
6 情報処理装置
61 通信部
62 制御部
621 取得部
622 出力部
623 選択受付部
63 記憶部
630 学習モデル管理DB
631 検査結果DB
632 記録媒体
P プログラム
64 入出力I/F
7 表示部
8 入力部
91 学習モデル

Claims (9)

  1. コンピュータに、
    内視鏡によって撮影された内視鏡画像を取得し、
    前記内視鏡画像に含まれる病変に関する診断支援情報を出力するように学習された複数の学習モデルに、取得した前記内視鏡画像を入力し、
    前記複数の学習モデル夫々から出力された複数の診断支援情報を取得し、
    取得した前記複数の診断支援情報と、前記複数の学習モデル夫々に関する情報とを関連付けて出力し、
    前記内視鏡画像は、前記内視鏡により所定期間を経て撮影した複数の内視鏡画像を含み、
    前記複数の内視鏡画像夫々を、前記複数の学習モデル夫々に入力し、
    前記複数の学習モデル夫々から出力された前記複数の内視鏡画像毎の複数の診断支援情報を取得し、
    取得した前記複数の診断支援情報と、前記複数の内視鏡画像の撮影時点に関する情報とを関連付けて出力する
    処理を実行させるプログラム。
  2. コンピュータに、
    内視鏡によって撮影された内視鏡画像を取得し、
    前記内視鏡画像に含まれる病変に関する診断支援情報を出力するように学習された学習モデルに、取得した前記内視鏡画像を入力し、
    前記学習モデル上で複数の診断論理を実行させて、出力された複数の診断支援情報を取得し、
    取得した前記複数の診断支援情報と、複数の学習モデル夫々に関する情報とする前記学習モデル上で実行した複数の診断論理夫々に関する情報とを関連付けて出力し、
    前記内視鏡画像は、前記内視鏡により所定期間を経て撮影した複数の内視鏡画像を含み、
    前記複数の内視鏡画像夫々を、前記複数の学習モデル夫々に入力し、
    前記複数の学習モデル夫々から出力された前記複数の内視鏡画像毎の複数の診断支援情報を取得し、
    取得した前記複数の診断支援情報と、前記複数の内視鏡画像の撮影時点に関する情報とを関連付けて出力する
    処理を実行させるプログラム。
  3. 前記複数の学習モデル夫々に関する情報は、前記複数の学習モデル同士における差異に関する情報を含む
    請求項1又は請求項2に記載のプログラム。
  4. 前記複数の学習モデルの内の少なくとも2つの学習モデルは、同じ層構成のニューラルネットワークから成り、
    前記2つの学習モデルを学習するための夫々の訓練データは、異なるものである
    請求項1から請求項のいずれか1項に記載のプログラム。
  5. 前記複数の学習モデルの内のいずれかの学習モデルを選択する操作を受付け、
    前記選択された学習モデルから出力された診断支援情報を取得し、
    取得した前記診断支援情報と、前記選択された学習モデルに関する情報とを関連付けて出力する
    請求項1から請求項のいずれか1項に記載のプログラム。
  6. 前記複数の学習モデルの内のいずれかの学習モデルを選択する操作を受付けるにあたり、
    前記複数の学習モデル夫々の累計使用回数に関する情報を表示する
    請求項に記載のプログラム。
  7. 前記複数の学習モデル夫々から出力される前記内視鏡画像に含まれる病変に関する診断支援情報は、前記内視鏡画像に含まれる病変の有無、病変の症状の種類、病変の症状のステージ及び、病変の位置の少なくとも1つを含む同種の情報である
    請求項1から請求項のいずれか1項に記載のプログラム。
  8. 内視鏡によって撮影された内視鏡画像を取得し、
    前記内視鏡画像に含まれる病変に関する診断支援情報を出力するように学習された複数の学習モデルに、取得した前記内視鏡画像を入力し、
    前記複数の学習モデル夫々から出力された複数の診断支援情報を取得し、
    取得した前記複数の診断支援情報と、前記複数の学習モデル夫々に関する情報とを関連付けて出力し、
    前記内視鏡画像は、前記内視鏡により所定期間を経て撮影した複数の内視鏡画像を含み、
    前記複数の内視鏡画像夫々を、前記複数の学習モデル夫々に入力し、
    前記複数の学習モデル夫々から出力された前記複数の内視鏡画像毎の複数の診断支援情報を取得し、
    取得した前記複数の診断支援情報と、前記複数の内視鏡画像の撮影時点に関する情報とを関連付けて出力する
    処理をコンピュータに実行させる情報処理方法。
  9. 内視鏡によって撮影された内視鏡画像を取得する取得部と、
    前記内視鏡画像に含まれる病変に関する診断支援情報を出力するように学習された複数の学習モデルに、取得した前記内視鏡画像を入力する入力部と、
    前記複数の学習モデル夫々から出力された複数の診断支援情報を取得し、取得した前記複数の診断支援情報と、前記複数の学習モデル夫々に関する情報とを関連付けて出力する出力部とを備え、
    前記内視鏡画像は、前記内視鏡により所定期間を経て撮影した複数の内視鏡画像を含み、
    前記複数の内視鏡画像夫々を、前記複数の学習モデル夫々に入力し、
    前記複数の学習モデル夫々から出力された前記複数の内視鏡画像毎の複数の診断支援情報を取得し、
    取得した前記複数の診断支援情報と、前記複数の内視鏡画像の撮影時点に関する情報とを関連付けて出力する
    情報処理装置。
JP2019204969A 2019-11-12 2019-11-12 プログラム、情報処理方法及び情報処理装置 Active JP7203000B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019204969A JP7203000B2 (ja) 2019-11-12 2019-11-12 プログラム、情報処理方法及び情報処理装置
US17/615,979 US20220327707A1 (en) 2019-11-12 2020-10-26 Program, information processing method, and information processing device
PCT/JP2020/040092 WO2021095500A1 (ja) 2019-11-12 2020-10-26 プログラム、情報処理方法及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019204969A JP7203000B2 (ja) 2019-11-12 2019-11-12 プログラム、情報処理方法及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2021074404A JP2021074404A (ja) 2021-05-20
JP7203000B2 true JP7203000B2 (ja) 2023-01-12

Family

ID=75899763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019204969A Active JP7203000B2 (ja) 2019-11-12 2019-11-12 プログラム、情報処理方法及び情報処理装置

Country Status (3)

Country Link
US (1) US20220327707A1 (ja)
JP (1) JP7203000B2 (ja)
WO (1) WO2021095500A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220208358A1 (en) * 2020-12-29 2022-06-30 Avicenna.Ai Systems, devices, and methods for rapid detection of medical conditions using machine learning
WO2024084578A1 (ja) * 2022-10-18 2024-04-25 日本電気株式会社 画像処理装置、画像処理方法及び記憶媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308427A (ja) 2002-02-15 2003-10-31 Fujitsu Ltd モデル構築プログラム、モデル構築方法およびモデル構築装置
JP2005222187A (ja) 2004-02-04 2005-08-18 Hitachi Ltd 業務支援システム導入による収益増分シミュレーション方法及びシステム
JP2008197785A (ja) 2007-02-09 2008-08-28 Nec Corp シミュレーション装置、モデルデータ更新方法およびプログラム
US20160073958A1 (en) 2013-03-26 2016-03-17 Daegu Gyeongbuk Institute of Science and Technolog y Endoscope system for diagnosis support and method for controlling same
JP6513314B1 (ja) 2018-07-30 2019-05-15 楽天株式会社 判定システム、判定方法及びプログラム
JP2019159876A (ja) 2018-03-14 2019-09-19 株式会社日立製作所 将来状態推定装置および将来状態推定方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101993716B1 (ko) * 2012-09-28 2019-06-27 삼성전자주식회사 카테고리별 진단 모델을 이용한 병변 진단 장치 및 방법
JP6004084B2 (ja) * 2013-03-29 2016-10-05 富士通株式会社 モデル更新方法、装置、およびプログラム
CN106096727B (zh) * 2016-06-02 2018-12-07 腾讯科技(深圳)有限公司 一种基于机器学习的网络模型构造方法及装置
AU2018373210A1 (en) * 2017-11-21 2020-06-11 Fujifilm Corporation Medical care assistance device, and operation method and operation program therefor
US11430140B2 (en) * 2018-09-18 2022-08-30 Caide Systems, Inc. Medical image generation, localizaton, registration system
KR102135632B1 (ko) * 2018-09-28 2020-07-21 포항공과대학교 산학협력단 뉴럴 프로세싱 장치 및 그것의 동작 방법
KR102289277B1 (ko) * 2018-12-21 2021-08-13 주식회사 인피니트헬스케어 복수의 의료 영상 판독 알고리듬들에 대한 평가 스코어를 생성하는 의료 영상 판독 지원 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003308427A (ja) 2002-02-15 2003-10-31 Fujitsu Ltd モデル構築プログラム、モデル構築方法およびモデル構築装置
JP2005222187A (ja) 2004-02-04 2005-08-18 Hitachi Ltd 業務支援システム導入による収益増分シミュレーション方法及びシステム
JP2008197785A (ja) 2007-02-09 2008-08-28 Nec Corp シミュレーション装置、モデルデータ更新方法およびプログラム
US20160073958A1 (en) 2013-03-26 2016-03-17 Daegu Gyeongbuk Institute of Science and Technolog y Endoscope system for diagnosis support and method for controlling same
JP2019159876A (ja) 2018-03-14 2019-09-19 株式会社日立製作所 将来状態推定装置および将来状態推定方法
JP6513314B1 (ja) 2018-07-30 2019-05-15 楽天株式会社 判定システム、判定方法及びプログラム

Also Published As

Publication number Publication date
JP2021074404A (ja) 2021-05-20
WO2021095500A1 (ja) 2021-05-20
US20220327707A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
JP7313512B2 (ja) 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
CN112533525B (zh) 内窥镜用处理器、信息处理装置、程序、信息处理方法以及学习模型的生成方法
JP7203000B2 (ja) プログラム、情報処理方法及び情報処理装置
JP7377769B2 (ja) プログラム、情報処理方法及び情報処理装置
CN115131642B (zh) 一种基于多视子空间聚类的多模态医学数据融合系统
JP2021153808A (ja) プログラム、情報処理方法、情報処理装置及び診断支援システム
JP6704095B1 (ja) プログラム、情報処理方法及び情報処理装置
CN113435236A (zh) 居家老人姿态检测方法、系统、存储介质、设备及应用
Yang et al. Deep learning application in spinal implant identification
US20220084194A1 (en) Computer program, processor for endoscope, and information processing method
Ríos et al. A deep learning model for classification of diabetic retinopathy in eye fundus images based on retinal lesion detection
CN110570425B (zh) 一种基于深度强化学习算法的肺结节分析方法及装置
WO2020174863A1 (ja) 診断支援プログラム、診断支援システム及び診断支援方法
WO2021033303A1 (ja) 訓練データ生成方法、学習済みモデル及び情報処理装置
US20230100147A1 (en) Diagnosis support system, diagnosis support method, and storage medium
CN111951950A (zh) 基于深度学习的三维数据医疗分类系统、方法和装置
WO2023108418A1 (zh) 脑图谱构建及神经环路检测的方法和相关产品
JP7478518B2 (ja) 読影支援装置および読影支援方法
JP7276513B2 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及びプログラム
US20240087723A1 (en) Program, information processing method, and information processing device
CN113763332B (zh) 一种基于三元胶囊网络算法的肺结节分析方法、装置及存储介质
JP7388284B2 (ja) 類似症例検索プログラム、類似症例検索方法及び類似症例検索システム
WO2022239518A1 (ja) プログラム、情報処理方法及び内視鏡システム
CN117788881A (zh) 多模态黄斑性变识别模型构建方法、装置、设备及介质
JP2024041066A (ja) 医用画像診断装置、医用情報処理方法及び医用情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7203000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150