JP2022135013A - プログラム、情報処理方法及び情報処理装置 - Google Patents

プログラム、情報処理方法及び情報処理装置 Download PDF

Info

Publication number
JP2022135013A
JP2022135013A JP2021034569A JP2021034569A JP2022135013A JP 2022135013 A JP2022135013 A JP 2022135013A JP 2021034569 A JP2021034569 A JP 2021034569A JP 2021034569 A JP2021034569 A JP 2021034569A JP 2022135013 A JP2022135013 A JP 2022135013A
Authority
JP
Japan
Prior art keywords
image
interest
region
output
endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021034569A
Other languages
English (en)
Inventor
京助 松村
Kyosuke MATSUMURA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2021034569A priority Critical patent/JP2022135013A/ja
Priority to PCT/JP2021/045921 priority patent/WO2022185651A1/ja
Priority to US18/039,770 priority patent/US20240087723A1/en
Priority to CN202180080128.1A priority patent/CN116583215A/zh
Priority to EP21929209.1A priority patent/EP4233684A1/en
Publication of JP2022135013A publication Critical patent/JP2022135013A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Endoscopes (AREA)

Abstract

【課題】内視鏡画像に関心領域が含まれる場合、関心領域を拡大表示する処理を効率的に行うプログラム等を提供する。【解決手段】プログラムは、コンピュータに、内視鏡により撮像した画像を取得し、前記内視鏡により撮像した画像が入力された場合、画像に含まれる関心領域の位置を出力するように学習済みの学習済みモデルに、前記取得した画像を入力し、前記学習済みモデルから、前記取得した画像に含まれる関心領域の位置を取得し、取得した前記関心領域の位置に基づき、前記関心領域が含まれる画像の部分を拡大した拡大画像を出力する処理をコンピュータに実行させる。【選択図】図1

Description

本技術は、プログラム、情報処理方法及び情報処理装置に関する。
内視鏡画像等の医用画像から、学習モデルを使用して病変部位を自動的に検出するコンピュータ支援診断技術が開発されている。正解ラベルが付与された教師データを用いた教師あり機械学習により、学習モデルを生成する手法が知られている。通常の内視鏡で撮影された画像群を教師データに用いた第1の学習と、カプセル内視鏡で撮影された画像群を教師データに用いた第2の学習とを組み合わせる学習方法にて学習される学習モデルが、開示されている(例えば、特許文献1)。
国際公開第2017/175282号
しかしながら、特許文献1に記載のコンピュータ支援診断技術は、入力された画像に関心領域(ROI)が含まれる場合、当該関心領域を拡大表示する観点からの診断支援については、考慮されていないという問題点がある。
一つの側面では、内視鏡画像に関心領域が含まれる場合、関心領域を拡大表示する処理を効率的に行うプログラム等を提供することを目的とする。
本開示の一態様におけるプログラムは、コンピュータに、内視鏡により撮像した画像を取得し、前記内視鏡により撮像した画像が入力された場合、画像に含まれる関心領域の位置を出力するように学習済みの学習済みモデルに、前記取得した画像を入力し、前記学習済みモデルから、前記取得した画像に含まれる関心領域の位置を取得し、取得した前記関心領域の位置に基づき、前記関心領域が含まれる画像の部分を拡大した拡大画像を出力する処理をコンピュータに実行させる。
本開示の一態様における情報処理方法は、内視鏡により撮像した画像を取得し、前記内視鏡により撮像した画像が入力された場合、画像に含まれる関心領域の位置を出力するように学習済みの学習済みモデルに、前記取得した画像を入力し、前記学習済みモデルから、前記取得した画像に含まれる関心領域の位置を取得し、取得した前記関心領域の位置に基づき、前記関心領域が含まれる画像の部分を拡大した拡大画像を出力する
処理をコンピュータに実行させる。
本開示の一態様における情報処理装置は、内視鏡により撮像した画像を取得する画像取得部と、前記内視鏡により撮像した画像が入力された場合、画像に含まれる関心領域の位置を出力するように学習済みの学習済みモデルに、前記取得した画像を入力する入力部と、前記学習済みモデルから、前記取得した画像に含まれる関心領域の位置を取得する位置取得部と、取得した前記関心領域の位置に基づき、前記関心領域が含まれる画像の部分を拡大した拡大画像を出力する出力部とを備える。
本開示によれば、内視鏡画像に関心領域が含まれる場合、関心領域を拡大表示する処理を効率的に行うプログラム等を提供することができる。
実施形態1に係る内視鏡システムの概要を示す模式図である。 内視鏡システムに含まれる内視鏡装置の構成例を示すブロック図である。 内視鏡システムに含まれる情報処理装置の構成例を示すブロック図である。 情報処理装置の制御部に含まれる機能部を例示する機能ブロック図である。 学習済みモデル(関心領域学習モデル)に関する説明図である。 拡大画像の表示画面の一態様を示す説明図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。 実施形態2(複数の関心領域)に係る拡大画像の表示画面の一態様を示す説明図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。 実施形態3(第2学習済みモデル)に係る情報処理装置の制御部に含まれる機能部を例示する機能ブロック図である。 第2学習済みモデル(診断支援学習モデル)に関する説明図である。 情報処理装置の制御部による処理手順の一例を示すフローチャートである。
(実施形態1)
以下、本発明をその実施の形態を示す図面に基づいて詳述する。図1は、実施形態1に係る診断支援システムSの概要を示す模式図である。診断支援システムSは、内視鏡装置10及び、内視鏡装置10と通信可能に接続される情報処理装置6を含む。
内視鏡装置10は、内視鏡40の撮像素子によって撮影した画像(撮影画像)を内視鏡用プロセッサ20に伝送し、内視鏡用プロセッサ20によってガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行うことにより、操作者が目視し易い状態にした内視鏡画像を生成する。内視鏡装置10は、生成した内視鏡画像を情報処理装置6に出力(送信)する。内視鏡装置10から送信された内視鏡画像を取得した情報処理装置6は、これら内視鏡画像に基づき種々の情報処理を行い、内視鏡画像に含まれる関心領域(ROI:Region of Interest)に関する情報(関心領域情報)を抽出し、当該関心領域情報に基づき、関心領域の拡大画像を生成し、内視鏡装置10(内視鏡用プロセッサ20)に出力する。関心領域(ROI)とは、内視鏡40の操作者である医師等が着目する領域であり、例えば、病変、病変候補、薬剤、処置具、及びマーカー等が位置(存在)する領域である。情報処理装置6から出力された関心領域の拡大画像は、内視鏡装置10に接続される表示装置50にて表示される。
内視鏡装置10は、内視鏡用プロセッサ20と、内視鏡40と、表示装置50とを含む。表示装置50は、例えば液晶表示装置、又は、有機EL(Electro Luminescence)表示装置である。
表示装置50はキャスター付きの収容棚16の上段に設置されている。内視鏡用プロセッサ20は、収容棚16の中段に収容されている。収容棚16は、図示を省略する内視鏡検査用ベッドの近傍に配置される。収容棚16は内視鏡用プロセッサ20に接続されたキーボード15を搭載する、引き出し式の棚を有する。
内視鏡用プロセッサ20は、略直方体形状であり、一面にタッチパネル25を備える。タッチパネル25の下部に、読取部28が配置されている。読取部28は、例えばUSBコネクタ、SD(Secure Digital)カードスロット、又はCD-ROM(Compact Disc Read Only Memory)ドライブ等の、可搬型記録媒体の読み書きを行う接続用インターフェイスである。
内視鏡40は、挿入部44、操作部43、ユニバーサルコード49及びスコープコネクタ48を有する。操作部43には、制御ボタン431が設けられている。挿入部44は長尺であり、一端が折止部45を介して操作部43に接続されている。挿入部44は、操作部43側から順に軟性部441、湾曲部442及び先端部443を有する。湾曲部442は、湾曲ノブ433の操作に応じて湾曲する。挿入部44には、3軸加速度センサ、ジャイロセンサ、地磁気センサ、磁気コイルセンサ又は内視鏡挿入形状観測装置(コロナビ)等の物理検出装置が実装され、内視鏡40が被検者の体内に挿入された際、これら物理検出装置からの検出結果を取得するものであってもよい。
ユニバーサルコード49は長尺であり、第一端が操作部43に、第二端がスコープコネクタ48にそれぞれ接続されている。ユニバーサルコード49は、軟性である。スコープコネクタ48は略直方体形状である。スコープコネクタ48には、送気送水用のチューブを接続する送気送水口金36(図2参照)が設けられている。
図2は、診断支援システムSに含まれる内視鏡装置10の構成例を示すブロック図である。制御部21は、本実施の形態のプログラムを実行する演算制御装置である。制御部21には、一又は複数のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)又はマルチコアCPU等が使用される。制御部21は、バスを介して内視鏡用プロセッサ20を構成するハードウェア各部と接続されている。
主記憶装置22は、例えば、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の記憶装置である。主記憶装置22には、制御部21が行う処理の途中で必要な情報及び制御部21で実行中のプログラムが一時的に保存される。補助記憶装置23は、例えば、SRAM、フラッシュメモリ又はハードディスク等の記憶装置であり、主記憶装置22よりも大容量の記憶装置である。補助記憶装置23には、例えば、取得した撮影画像、生成した内視鏡画像が、中間データとして保存されるものであってもよい。
通信部24は、有線又は無線によりネットワークを介して情報処理装置6と通信するための通信モジュール又は通信インターフェイスであり、例えばwifi(登録商標)、 Bluetooth(登録商標)等の狭域無線通信モジュール、又は4G、LTE、5G等の広域無線通信モジュールである。タッチパネル25は、液晶表示パネル等の表示部と、表示部に積層された入力部を含む。通信部24は、CT装置、MRI装置(図5参照)又は、これら装置から出力されたデータを保存するストレージ装置(図示せず)と通信するものであってもよい。
表示装置I/F26は、内視鏡用プロセッサ20と表示装置50とを接続するインターフェイスである。入力装置I/F27は、内視鏡用プロセッサ20とキーボード15等の入力装置とを接続するインターフェイスである。
光源33は、例えば白色LED、キセノンランプ等の高輝度の白色光源、及び狭帯域光を出射する狭帯域光LED等の特殊光LEDによる特殊光源を含む。光源33は、図示を省略するドライバを介してバスに接続されている。光源33の点灯、消灯及び明るさの変更は、制御部21により制御される。光源33から照射した照明光は、光コネクタ312に入射する。光コネクタ312は、スコープコネクタ48と係合し、内視鏡40に照明光を供給する。
ポンプ34は、内視鏡40の送気・送水機能用の圧力を発生させる。ポンプ34は、図示を省略するドライバを介してバスに接続されている。ポンプ34のオン、オフ及び圧力の変更は、制御部21により制御される。ポンプ34は、送水タンク35を介して、スコープコネクタ48に設けられた送気送水口金36に接続される。
内視鏡用プロセッサ20に接続された内視鏡40の機能の概略を説明する。スコープコネクタ48、ユニバーサルコード49、操作部43及び挿入部44の内部に、ファイバーバンドル、ケーブル束、送気チューブ及び送水チューブ等が挿通されている。光源33から出射した照明光は、光コネクタ312及びファイバーバンドルを介して、先端部443に設けられた照明窓から放射される。照明光により照らされた範囲を、先端部443に設けられた撮像素子で撮影する。撮像素子からケーブル束及び電気コネクタ311を介して内視鏡用プロセッサ20に撮影画像が伝送される。
内視鏡用プロセッサ20の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部211として機能する。画像処理部211は、内視鏡40から出力された画像(撮影画像)をガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、内視鏡画像として出力する。
図3は、診断支援システムSに含まれる情報処理装置6の構成例を示すブロック図である。情報処理装置6は、制御部62、通信部61、記憶部63及び入出力I/F64を含む。情報処理装置6は、例えばサーバ装置、パーソナルコンピュータ等である。サーバ装置は、単体のサーバ装置のみならず、複数台のコンピュータによって構成されるクラウドサーバ装置、又は仮想サーバ装置を含む。情報処理装置6は、内視鏡用プロセッサ20からアクセス可能な外部ネットワーク上に位置するクラウドサーバとして設けられているものであってもよい。
制御部62は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の計時機能を備えた演算処理装置を有し、記憶部63に記憶されたプログラムを読み出して実行することにより、情報処理装置6に係る種々の情報処理、制御処理等を行う。
記憶部63は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の揮発性記憶領域及び、EEPROM又はハードディスク等の不揮発性記憶領域を含む。記憶部63には、プログラム及び処理時に参照するデータが予め記憶してある。記憶部63に記憶されたプログラムは、情報処理装置6が読み取り可能な記録媒体から読み出されたプログラムを記憶したものであってもよい。また、図示しない通信網に接続されている図示しない外部コンピュータからプログラムをダウンロードし、記憶部63に記憶させたものであってもよい。
記憶部63には、後述する学習済みモデル631(関心領域学習モデル)等を構成する実体ファイル(ニューラルネットワーク(NN)のインスタンスファイル)が保存されている。これら実体ファイルは、プログラムの一部位として構成されるものであってもよい。記憶部63には、更に、拡大画像を生成及び出力(表示)するにあたって、予め定められた各種の設定値(プリセットデータ)が記憶されている。当該プリセットデータは、例えば、拡大画像の出力態様(親画面、子画面)を決定する設定値(プリセット値)、拡大表示(拡大画像を出力)する際の拡大率、拡大表示する際に特殊光観察モードに変更するか否かのフラグ値、関心領域の精度確率区分するための所定値(精度確率閾値)を含むものであってもよい。プリセットデータの詳細は、後述する。
通信部61は、有線又は無線により、内視鏡装置10と通信するための通信モジュール又は通信インターフェイスであり、例えばwifi(登録商標)、 Bluetooth(登録商標)等の狭域無線通信モジュール、又は4G、LTE、5G等の広域無線通信モジュールである。
入出力I/F64は、例えば、USB又はDSUB等の通信規格に準拠したものであり、入出力I/F64に接続された外部機器とシリアル通信するための通信インターフェイスである。入出力I/F64には、例えばディプレイ等の表示部7、マウス及びキーボード等の入力部8が接続されており、制御部62は、入力部8から入力された実行コマンド又はイベントに基づき行った情報処理の結果を表示部7に出力する。
図4は、情報処理装置6の制御部62に含まれる機能部を例示する機能ブロック図である。内視鏡用プロセッサ20(内視鏡装置10)の制御部21は、主記憶装置22に記憶されているプログラムを実行することにより、画像処理部211として機能する。
内視鏡用プロセッサ20の画像処理部211は、内視鏡から出力された画像(撮影画像)をガンマ補正、ホワイトバランス補正、シェーディング補正等の各種画像処理を行い、内視鏡画像として出力する。内視鏡用プロセッサ20は、更に情報処理装置6から出力される拡大画像及び当該拡大画像を出力する際の出力態様データを取得し、当該出力態様データに基づき拡大画像を表示装置50に出力する。
情報処理装置6の制御部62は、記憶部63に記憶されているプログラムを実行することにより、取得部621、学習済みモデル631、拡大画像生成部622、出力態様決定部623、及び出力部624として機能する。
取得部621は、内視鏡用プロセッサ20が出力した内視鏡画像を取得する。取得部621は取得した内視鏡画像を学習済みモデル631(関心領域学習モデル)に入力する。内視鏡画像が動画像にて内視鏡用プロセッサ20から情報処理装置6に出力(送信)される場合、取得部621は、当該動画像におけるフレーム単位で内視鏡画像を取得し、学習済みモデル631に入力するものであってもよい。
学習済みモデル631は、取得部621から出力された内視鏡画像を取得及び入力し、入力された当該内視鏡画像に含まれる関心領域に関する情報を出力する。関心領域に関する情報は、内視鏡画像に含まれる関心領域の部分を示す位置、及び関心領域であると推定した際の精度確率を含む。内視鏡画像に含まれる関心領域の部分を示す位置は、例えば、当該内視鏡画像の画像座標系における2点の座標を含むものであり、当該2点を対角として構成される矩形状の枠体(バウンディングボックス)によって、関心領域の部分を示す位置が特定される。関心領域であると推定した際の精度確立は、例えば、内視鏡画像から抽出した関心領域の推定精度を示すクラス確率(推定スコア)の値であり、例えば、0から1の値にて示される。この場合、1に近いほど、内視鏡画像から抽出した関心領域が、真の関心領域である(推定精度が高い)ことを示す。このように学習済みモデル631は、入力された内視鏡画像に関心領域が含まれている場合、当該関心領域に関する情報として位置及び精度確率を出力し、入力された内視鏡画像に関心領域が含まれていない場合、当該関心領域に関する情報を出力しない。従って、学習済みモデル631は、入力された内視鏡画像に関心領域が含まれているか、含まれていないかを判定する関心領域有無判定部として機能する。学習済みモデル631は、入力された内視鏡画像に関心領域が含まれている場合、関心領域に関する情報(位置、精度確率)を、拡大画像生成部622及び出力態様決定部623に出力する。
図5は、学習済みモデル631(関心領域学習モデル)に関する説明図である。学習済みモデル631は、例えば、RCNN(Regions with Convolutional Neural Network)、Fast RCNN、Faster RCNN又はSSD(Single Shot Multibook Detector)、YOLO(You Only Look Once)、又はセグメンテーションネットワークの機能を有するニューラルネットワーク(NN)等、物体検出を行うモデルである。学習済みモデル631が、例えばRCNN等、画像の特徴量を抽出するCNN(Convolutional Neural Network)を含むニューラルネットワークで構成される場合、学習済みモデル631に含まれる入力層は、内視鏡画像の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層に受け渡す。中間層は、内視鏡画像の画像特徴量を抽出する複数のニューロンを有し、抽出した画像特徴量を出力層に受け渡す。出力層は、関心領域の位置等を含む関心領域情報を出力する一又は複数のニューロンを有し、中間層から出力された画像特徴量に基づいて、関心領域の位置及び精度確率(推定スコア)を出力する。又は、学習済みモデル631は、中間層から出力された画像特徴量をSVM(support vector machine) に入力して物体認識を行うものであってもよい。訓練データを用いて学習されたニューラルネットワーク(学習済みモデル631)は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用が想定される。学習済みモデル631は、上述のごとく制御部62(CPU等)及び記憶部63を備える情報処理装置6にて用いられるものであり、このように演算処理能力を有する情報処理装置6にて実行されることにより、ニューラルネットワークシステムが構成される。すなわち、情報処理装置6の制御部62が、記憶部63に記憶された学習済みモデル631からの指令に従って、入力層に入力された内視鏡画像の特徴量を抽出する演算を行い、出力層から関心領域の位置及び精度確率(推定スコア)を出力する。
拡大画像生成部622は、学習済みモデル631から関心領域に関する情報を取得した場合、当該情報に含まれる関心領域の位置に基づき、当該関心領域を含む内視鏡画像の部分領域を抽出(切り出し)する。拡大画像生成部622は、抽出した(切り出した)当該部分領域を拡大表示することにより、関心領域が含まれる内視鏡画像の部分を拡大した拡大画像を生成する。拡大画像生成部622は、例えば、電子ズーム(デジタルズーム)の手法を用いて、関心領域の拡大画像を生成するものであってもよい。当該電子ズーム(デジタルズーム)により、内視鏡画像の一部(関心領域を含む内視鏡画像の部分領域)を切り取って補完拡大することができ、ソフトウェア処理によって、拡大画像を効率的に生成することができる。拡大画像生成部622は、例えば、記憶部63に記憶されているプリセットデータに含まれる拡大率に基づき、拡大画像を生成する。拡大率は、例えば5倍等の固定値であってもよく、又は、抽出した(切り出した)関心領域を含む内視鏡画像の部分領域の画素数に応じて決定されるものであってよい。当該画素数に応じて拡大率を決定する場合、画素数が多くなるほど拡大率を小さくする反比例係数に基づき、拡大率を決定するものであってもよい。拡大画像生成部622は、関心領域に関する情報に含まれる精度確率を拡大画像に重畳させて、当該拡大画像を生成するものであってもよい。拡大画像生成部622は生成した拡大画像を出力部624に出力する。
出力態様決定部623は、学習済みモデル631から関心領域に関する情報を取得した場合、当該情報に含まれる関心領域の精度確率に基づき、拡大画像を出力(表示)する際の出力態様(表示態様)を決定する。当該出力態様(表示態様)は、例えば、内視鏡画像が表示される画面(親画面)とは別個の画面(子画面)にて拡大画像を表示する子画面表示態様と、内視鏡画像が表示される画面(親画面)にて、内視鏡画像から拡大画像に切り替えて拡大画像を表示する親画面切替表示態様とを含む。学習済みモデル631から出力された関心領域の精度確率が所定値未満の場合、出力態様決定部623は、拡大画像を出力(表示)する際の出力態様(表示態様)を、子画面表示態様に決定する。学習済みモデル631から出力された関心領域の精度確率が所定値以上の場合、出力態様決定部623は、記憶部63に記憶されたプリセットデータに含まれる設定値(出力態様を決定するプリセット値)に基づき、拡大画像を出力(表示)する際の出力態様(表示態様)を、親画面切替表示態様又は子画面表示態様に決定する。
記憶部63に記憶されているプリセットデータは、出力態様を決定する際に用いられる精度確率の所定値(関心領域の精度確率を区分するための精度確率閾値)、及び精度確率が所定値以上の場合に出力態様を決定する設定値(プリセット値)を含む。更に、プリセットデータは、拡大表示する際に特殊光観察モードに変更するか否かのフラグ値を含む。出力態様決定部623は、学習済みモデル631から関心領域に関する情報を取得した場合、プリセットデータに含まれる当該フラグ値に基づき、拡大表示する際、白色光観察モードから特殊光観察モードに変更するか否かを決定する。出力態様決定部623は、このように決定した出力態様、及び観察モードのフラグ値(特殊光観察モードへの変更の要否)を含む出力態様データを生成し、生成した出力態様データを出力部624に出力する。出力態様データは、拡大画像を表示するにあたっての出力態様を制御するためのデータであり、例えば、親画面とするか子画面とするかを示す設定値(プリセット値)、及び特殊光観察モードに変更するか否かのフラグ値を含む。
出力部624は、拡大画像生成部622から取得した拡大画像、及び出力態様決定部623から取得した出力態様データを、内視鏡用プロセッサ20に出力する。内視鏡用プロセッサ20は、情報処理装置6(出力部624)から出力された拡大画像及び出力態様データに基づき、当該拡大画像を親画面又は子画面のいずれかの出力態様にて、表示装置50に表示させる。内視鏡用プロセッサ20は、出力態様データに含まれる観察モードのフラグ値に基づき、特殊光観察モードへの変更が要である場合、拡大画像を表示する際、NBI(Narrow band imaging)等の特殊光観察モードへ変更する。
本実施形態において、一連の処理における各機能部を、内視鏡用プロセッサ20の制御部21による機能部と、情報処理装置6の制御部62による機能部夫々とに分けて説明したが、これら機能部の分担は一例であり、これに限定されない。内視鏡用プロセッサ20の制御部21は、情報処理装置6の制御部62によって行われる全ての機能部として、機能するものであってもよい。すなわち、内視鏡用プロセッサ20が、実質的に情報処理装置6を含むものであってもよい。又は、内視鏡用プロセッサ20の制御部21は、撮像素子が撮像した撮影画像を出力するのみであり、情報処理装置6の制御部62は、以降の処理を行う全ての機能部として機能するものであってもよい。又は、内視鏡用プロセッサ20の制御部21と、情報処理装置6の制御部62とは、例えばプロセス間通信を行うことにより、協働して一連の処理における各機能部として機能するものであってもよい。
図6は、拡大画像の表示画面の一態様を示す説明図である。本実施形態における図示において、左側の画面は、内視鏡画像が表示されている親画面である。右上の画面は、関心領域が拡大された拡大画像を、親画面にて表示した状態を示す画面であり、親画面切替
表示態様による表示態様である。右下の画面は、関心領域が拡大された拡大画像を、子画面にて表示した状態を示す画面であり、子画面表示態による表示態様である。
これら拡大画像には、関心領域の精度確率(推定スコア)が重畳されている。精度確率が、例えば0.9等の所定値未満の場合、拡大画像は子画面にて表示される。精度確率が、所定値以上の場合、プリセットデータに含まれる設定値(プリセット値)に基づき、拡大画像は、親画面又は子画面にて表示される。
図7は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。情報処理装置6は、例えば、自装置に接続されている入力部8からの入力内容に基づき、当該フローチャートの処理を開始する。
情報処理装置6の制御部62は、内視鏡用プロセッサ20から出力された内視鏡画像を取得する(S101)。内視鏡用プロセッサ20による体腔内の撮像の開始と同期して、情報処理装置6の制御部62は、内視鏡用プロセッサ20から内視鏡画像を取得するものであってもよい。情報処理装置6の制御部62が内視鏡用プロセッサ20から取得する内視鏡画像は、静止画又は動画であってもよい。
情報処理装置6の制御部62は、内視鏡画像を学習済みモデル631に入力する(S102)。内視鏡画像が入力された学習済みモデル631は、入力された内視鏡画像に関心領域が含まれている場合、当該関心領域に関する情報として位置及び精度確率を出力し、入力された内視鏡画像に関心領域が含まれていない場合、当該関心領域に関する情報を出力しない。
情報処理装置6の制御部62は、学習済みモデル631から関心領域に関する情報を取得したか否かを判定する(S103)。学習済みモデル631から関心領域に関する情報を取得しなかった場合(S103:NO)、情報処理装置6の制御部62は、再度S101の処理を実行すべく、ループ処理を行う。
学習済みモデル631から関心領域に関する情報を取得した場合(S103:YES)、情報処理装置6の制御部62は、関心領域に関する情報に含まれる関心領域の位置に基づき、関心領域の拡大画像を生成する(S104)。情報処理装置6の制御部62は、関心領域の位置に基づき、当該関心領域を含む内視鏡画像の部分領域を抽出して(切り出して)、例えば、電子ズーム(デジタルズーム)の手法を用いて、関心領域の拡大画像を生成する。情報処理装置6の制御部62は、生成した関心領域の拡大画像と、当該関心領域が含まれる内視鏡画像とを関連付けて、記憶部63に記憶するものであってもよい。
情報処理装置6の制御部62は、関心領域に関する情報に含まれる関心領域の精度確立が、設定値以上であるか否かを判定する(S105)。情報処理装置6の制御部62は、記憶部63に記憶されているプリセットデータに含まれる所定値(関心領域の精度確率区分するための精度確率閾値)を参照し、取得した精度確立が、設定値以上であるか否かを判定する。関心領域の精度確立が設定値以上でない場合(S105:NO)、すなわち関心領域の精度確立が設定値未満である場合、情報処理装置6の制御部62は、出力態様を子画面とする旨を決定する。
関心領域の精度確立が設定値以上である場合(S105:YES)、情報処理装置6の制御部62は、プリセットデータを参照して出力態様を決定する(S106)。情報処理装置6の制御部62は、プリセットデータに含まれる設定値(プリセット値)に基づき、拡大画像を親画面とするか子画面とするか(出力態様)を決定する。本実施形態において、関心領域の精度確立が設定値以上である場合、プリセットデータを参照して出力態様を決定するとしたが、これに限定されず、情報処理装置6の制御部62は、例えば、情報処理装置6に接続される表示部7に出力態様を選択する選択画面をポップアップ表示させ、入力部8から入力される内視鏡の操作者による選択操作に基づき、出力態様を決定するものであってもよい。
情報処理装置6の制御部62は、プリセットデータを参照して拡大表示時の観察モードを取得する(S107)。情報処理装置6の制御部62は、プリセットデータに含まれる観察モードのフラグ値(特殊光観察モードへの変更の要否)に基づき、拡大表示時の観察モードを決定する。
情報処理装置6の制御部62は、拡大画像及び出力態様データを出力する(S108)。出力態様データには、拡大画像を表示する際の出力態様(表示態様)及び観察モード(特殊光観察モードへの変更)が、含まれる。情報処理装置6の制御部62は、拡大画像及び出力態様データを内視鏡用プロセッサ20に出力する。内視鏡用プロセッサ20は、情報処理装置6(出力部624)から出力された拡大画像及び出力態様データに基づき、当該拡大画像を親画面又は子画面のいずれかの出力態様にて、表示装置50に表示させる。内視鏡用プロセッサ20は、出力態様データに含まれる観察モードのフラグ値に基づき、特殊光観察モードへの変更が要である場合、拡大画像を表示する際、NBI(Narrow band imaging)等の特殊光観察モードへ変更する。
情報処理装置6の制御部62は、内視鏡用プロセッサ20から次に出力された内視鏡画像を取得する(S109)。内視鏡用プロセッサ20からは、順次に内視鏡画像が出力されており、情報処理装置6の制御部62は、当該内視鏡画像を順次に取得する。
情報処理装置6の制御部62は、内視鏡画像を学習済みモデル631に入力する(S110)。情報処理装置6の制御部62は、学習済みモデル631から関心領域に関する情報を取得したか否かを判定する(S111)。情報処理装置6の制御部62は、S102及びS103の処理と同様に、S110及びS111の処理を行う。
学習済みモデル631から関心領域に関する情報を取得しなかった場合(S111:NO)、情報処理装置6の制御部62は、拡大画像の出力を停止する。当該拡大画像の出力を停止することにより、親画面にて表示される画像は、拡大画像から、内視鏡画像に切り替えられる。生成した子画面にて拡大画像を表示していた場合は、当該子画面は、閉じられる。拡大画像の出力を停止した後、情報処理装置6の制御部62は、再度S101の処理を実行すべくループ処理を行う。学習済みモデル631から関心領域に関する情報を取得した場合(S111:YES)、情報処理装置6の制御部62は、再度S104の処理を実行すべくループ処理を行う。
本実施形態において、一連の処理は、情報処理装置6の制御部62によって行われるとしたが、これに限定されない。これら一連の処理は、内視鏡用プロセッサ20の制御部21によって行われるものであってもよい。又は、これら一連の処理は、内視鏡用プロセッサ20の制御部21と、情報処理装置6の制御部62とが、例えばプロセス間通信を行うことにより、協働して行うものであってもよい。本実施形態において、情報処理装置6の制御部62は、生成した拡大画像を内視鏡用プロセッサ20に出力するとしたが、これに限定されず、情報処理装置6の制御部62は、拡大画像を情報処理装置6に接続される表示部7に出力し、当該表示部7にて拡大画像を表示するものであってもよい。
本実施形態によれば、情報処理装置6は、内視鏡により撮像した画像(内視鏡画像)を学習済みモデル631に入力し、当該画像(内視鏡画像)に関心領域(ROI)が含まれる場合、学習済みモデル631から出力される関心領域の位置を取得する。情報処理装置6は、取得した関心領域の位置に基づき、当該関心領域を含む内視鏡画像の部分領域を抽出して、当該部分領域を拡大表示することにより、関心領域が含まれる内視鏡画像の部分を拡大した拡大画像を出力する。これにより、内視鏡画像に関心領域(ROI)が含まれる場合、関心領域を拡大表示する処理を効率的に行うことができ、当該拡大表示する処理を行うことにより生成された拡大画像によって、内視鏡の操作者による関心領域に対する視認性を向上させることができる。拡大表示するための電子ズーム操作を、関心領域の有無に基づき自動的に行うため、内視鏡の操作者によるズーム操作を不要にすることができ、内視鏡の操作性を向上させることができる。拡大表示された病変等の関心領域を効率的に目視することができるため、医師等の内視鏡の操作者による判定を容易化し、例えば生検等の処置を低減させることが期待される。
本実施形態によれば、情報処理装置6は、学習済みモデル631から取得した関心領域の精度確率に基づき、拡大画像を出力する際の出力態様を決定し、当該出力態様にて拡大画像を出力する。当該出力態様は、内視鏡画像が表示される画面とは別個の画面(子画面)にて表示されるように拡大画像を出力する出力態様と、内視鏡画像が表示される画面(親画面)において当該内視鏡画像から拡大画像に切り替える出力態様とを含む。情報処理装置6は、精度確率が所定値未満の場合、内視鏡画像が表示される画面とは別個の画面(子画面)にて表示されるように拡大画像を出力する出力態様を用いることにより、内視鏡画像が表示される画面(親画面)の状態は維持しつつ、関心領域の拡大画像が別個の画面(子画面)にて表示されるように出力する。これにより、関心領域の精度確率が所定値未満であるとして学習済みモデル631により推定(出力)された際は、内視鏡画像が表示される画面(親画面)の状態は維持されるため、内視鏡の操作者による内視鏡画像の目視を継続させることができる。
精度確率が所定値以上の関心領域については、内視鏡画像が表示される画面(親画面)を、当該内視鏡画像から、関心領域の拡大画像に切り替える出力態様を用いることにより、内視鏡の操作者による拡大画像(精度確率が所定値以上の関心領域)に対する視認性を向上させることができる。精度確率が所定値以上の関心領域であっても、精度確率が所定値未満の関心領域と同様に、内視鏡画像が表示される画面(親画面)の状態は維持しつつ、関心領域の拡大画像を別個の画面(子画面)にて表示されるように出力するようにプリセット値にて制御するものであってもよい。すなわち、精度確率が所定値以上の関心領域の拡大画像を出力する際の出力態様は、内視鏡画像が表示される画面(親画面)に切り替える出力態様と、内視鏡画像が表示される画面(親画面)とは別個の画面(子画面)にて出力(表示)する出力態様とを含み、これら複数の出力態様を選択的に用いることができる。選択的に用いられる出力態様を決定する設定値(プリセット値)は、情報処理装置6の記憶部63等、当該情報処理装置6の制御部62からアクセス可能な記憶領域に記憶されており、情報処理装置6は、当該設定値に基づき、精度確率が所定値以上の関心領域の拡大画像を出力する際の出力態様を決定するため、内視鏡の操作者に応じた可用性を向上することができる。
本実施形態によれば、情報処理装置6は、関心領域の拡大画像を出力する場合、内視鏡の観察モードを特殊光観察モードに変更する信号を内視鏡(内視鏡プロセッサ)に出力するため、内視鏡画像における関心領域の存在をトリガーに白色光観察モードから特殊光観察モードへの観察モード変更を自動的に行い、例えばNBI(Narrow Band Imaging:狭帯域光法)等の特殊光によって照明された関心領域の拡大画像を内視鏡の操作者に対し、効率的に提供することができる。
本実施形態によれば、情報処理装置6は、内視鏡画像に関心領域が含まれなくなった際、すなわち学習済みモデル631から関心領域に関する情報(位置、精度確率)が出力されなかった場合、拡大画像の出力を停止する。拡大画像を、内視鏡画像が表示される画面(親画面)とは別個の画面(子画面)にて表示していた場合、拡大画像の出力を停止することにより、当該子画面は、閉じられる。又は子画面は、非表示状態、非活性状態又は最小化状態に状態遷移されるものであってもよい。内視鏡画像が表示される画面(親画面)を、内視鏡画像から拡大画像に切り替えて、当該拡大画像を表示していた場合、拡大画像の出力を停止することにより、当該親画面にて表示される画像は、拡大画像から、元の内視鏡画像に切り替えられる。拡大画像を表示するにあたり特殊光観察モードを用いていた場合、内視鏡画像に関心領域が含まれなくなった際、観察モードを、特殊光観察モードから白色光観察モードに遷移させるものであってもよい。このように拡大画像が出力した状態となった以降に取得した内視鏡画像において、関心領域が含まれなくなった場合、当該関心領域の不存在をトリガーに、拡大画像の出力(表示)する際の出力態様(表示態様)を、内視鏡画像のみを出力(表示)する元の出力態様(表示態様)に自動的に戻すことにより、内視鏡の操作者による操作の手間を削減し、操作性を向上させることができる。
(実施形態2)
図8は、実施形態2(複数の関心領域)に係る拡大画像の表示画面の一態様を示す説明図である。情報処理装置6の制御部62(学習済みモデル631)は、内視鏡画像から、複数の関心領域に関する情報(位置、精度確率)を取得した場合、これら複数の関心領域それぞれを拡大した、複数の拡大画像それぞれを出力する。本実施形態における図示において、左側の画面は、内視鏡画像が表示されている親画面であり、当該内視鏡画像には、複数の関心領域が含まれている。
情報処理装置6の制御部62は、関心領域の個数と同数の子画面(内視鏡画像が表示される画面とは別個の画面)を生成し、生成したそれぞれの子画面に、それぞれの拡大画像を表示するものであってもよい。又は、情報処理装置6の制御部62は、生成した複数の拡大画像を出力(表示)する際、複数の拡大画像のうち、最も精度確立が高い拡大画像を親画面にて表示し、他の拡大画像を個々の子画面で出力(表示)する出力態様(表示態様)にて出力態様データを生成し、当該出力態様データを内視鏡用プロセッサ20に出力するものであってもよい。
図9は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。情報処理装置6の制御部62は、実施形態1のS101からS106及びS1051までの処理と同様に、S201からS206及びS2061までの処理を行う。
情報処理装置6の制御部62は、全ての関心領域の拡大画像を生成したか、否かを判定する(S207)。学習済みモデル631は、内視鏡画像に複数の関心領域が含まれる場合、これら複数の関心領域それぞれの位置及び精度確率を含む情報(関心領域に関する情報)を出力する。情報処理装置6の制御部62は、学習済みモデル631から出力された複数の関心領域それぞれの位置及び精度確率を、例えば配列形式にて記憶部63に一時記憶させ、内視鏡画像に含まれる関心領域の個数によって決定される配列番号の順に処理するものであってもよい。情報処理装置6の制御部62は、例えば、全ての配列番号に対応する関心領域の拡大画像を生成した場合、すなわち未処理の関心領域がなくなった場合、全ての関心領域の拡大画像を生成したと判定する。全ての関心領域の拡大画像を生成していない場合(S207:NO)、情報処理装置6の制御部62は、再度S204の処理を実行すべく、ループ処理を行う。
全ての関心領域の拡大画像を生成した場合(S207:YES)、情報処理装置6の制御部62は、実施形態1の処理S107、S108と同様にS208及びS209の処理を行う。情報処理装置6の制御部62は、生成した複数の拡大画像を内視鏡用プロセッサ20に出力(表示)する際、複数の拡大画像それぞれを、個々の子画面で出力(表示)する出力態様(表示態様)にて、出力態様データを内視鏡用プロセッサ20に出力するものであってもよい。又は、情報処理装置6の制御部62は、生成した複数の拡大画像を出力(表示)する際、複数の拡大画像のうち、最も精度確立が高い拡大画像を親画面にて表示し、他の拡大画像を個々の子画面で出力(表示)する出力態様(表示態様)にて、出力態様データを内視鏡用プロセッサ20に出力するものであってもよい。情報処理装置6の制御部62は、実施形態1と同様に、取得した内視鏡画像に関心領域が含まれなくなった場合、拡大画像の出力を停止するものであってもよい。
本実施形態によれば、情報処理装置6は、例えば動画における1フレーム等、単一の内視鏡画像から、複数の関心領域に関する情報(位置、精度確率)を取得した場合、これら複数の関心領域それぞれを拡大した、複数の拡大画像それぞれを内視鏡用プロセッサ20に出力する。複数の拡大画像それぞれを出力するにあたり、情報処理装置6は、関心領域の個数と同数の子画面(内視鏡画像が表示される画面とは別個の画面)を生成し、生成したそれぞれの子画面に、それぞれの拡大画像を表示させるものであってもよい。内視鏡画像において、複数の関心領域が含まれる場合であっても、当該複数の関心領域それぞれの拡大画像を個々の子画面にて表示することにより、内視鏡の操作者に対し、関心領域に関する情報を効率的に提供することができる。
(実施形態3)
図10は、実施形態3(第2学習済みモデル632)に係る情報処理装置6の制御部62に含まれる機能部を例示する機能ブロック図である。図11は、第2学習済みモデル632(診断支援学習モデル)に関する説明図である。実施形態3の情報処理装置6は、更に第2学習済みモデル632を備える。実施形態3の情報処理装置6の記憶部63には、第2学習済みモデル632(診断支援学習モデル)を構成する実体ファイル(ニューラルネットワーク(NN)のインスタンスファイル)が保存されている。これら実体ファイルは、プログラムの一部位として構成されるものであってもよい。
実施形態3の情報処理装置6の制御部62は、実施形態1と同様に記憶部63に記憶されているプログラムを実行することにより、取得部621、学習済みモデル631、拡大画像生成部622、出力態様決定部623、及び出力部624として機能し、更に第2学習済みモデル632として機能する。取得部621、学習済みモデル631、拡大画像生成部622、及び出力態様決定部623は、実施形態1と同様の処理を行う。更に拡大画像生成部622は、生成した拡大画像を第2学習済みモデル632に出力する。
第2学習済みモデル632は、学習済みモデル631と同様にニューラルネットワークで構成され、例えばCNN(Convolutional Neural Network)である。第2学習済みモデル632は、関心領域を含む拡大画像が入力された場合、関心領域に関する診断支援情報を出力するように学習されている。当該関心領域に関する診断支援情報は、例えば、病変、病変候補、薬剤、処置具、及びマーカー等の関心領域の種類、又は、病変の分類及びステージを含むものであってもよい。第2学習済みモデル632は、入力された拡大画像(関心領域を含む拡大画像)に基づき、当該関心領域の種類等を含む診断支援情報するモデルであり、診断支援学習モデルに相当する。第2学習済みモデル632は、入力された拡大画像に基づき出力(推定)した診断支援情報を、出力部624に出力する。
出力部624は、実施形態1と同様に、拡大画像生成部622から取得した拡大画像、出力態様決定部623から取得した出力態様データ、及び第2学習済みモデル632(診断支援学習モデル)から取得した診断支援情報を、内視鏡用プロセッサ20に出力する。内視鏡用プロセッサ20は、実施形態1と同様に情報処理装置6(出力部624)から出力された拡大画像、診断支援情報及び出力態様データに基づき、当該拡大画像及び診断支援情報を親画面又は子画面のいずれかの出力態様にて、表示装置50に表示させる。
図12は、情報処理装置6の制御部62による処理手順の一例を示すフローチャートである。情報処理装置6の制御部62は、実施形態1のS101からS107までの処理と同様に、S301からS307までの処理を行う。
情報処理装置6の制御部62は、拡大画像を第2学習済みモデル632に入力する(S308)。情報処理装置6の制御部62は、第2学習済みモデル632から診断支援情報を取得する(S309)。拡大画像が入力された第2学習済みモデル632は、関心領域に関する診断支援情報を出力する。当該関心領域に関する診断支援情報は、例えば、病変、病変候補、薬剤、処置具、及びマーカー等の関心領域の種類、又は、病変の分類及びステージが含まれる。
情報処理装置6の制御部62は、拡大画像、出力態様データ及び診断支援情報を出力する(S310)。情報処理装置6の制御部62は、実施形態1と同様に拡大画像、出力態様データ及び診断支援情報を内視鏡用プロセッサ20に出力する。内視鏡用プロセッサ20は、実施形態1と同様に情報処理装置6(出力部624)から出力された拡大画像、診断支援情報及び出力態様データに基づき、当該拡大画像及び診断支援情報を親画面又は子画面のいずれかの出力態様にて、表示装置50に表示させる。
本実施形態によれば、情報処理装置6は、学習済みモデル631が関心領域に関する情報(位置、精度確率)を出力した際、当該関心領域の拡大画像を第2学習済みモデル632に入力し、当該第2学習済みモデル632から、関心領域に関する診断支援情報(関心領域の種類、病変の分類及びステージ等)を取得する。第2学習済みモデル632に入力される画像は、内視鏡画像から抽出された関心領域の拡大画像であるため、内視鏡画像における関心領域の情報量比率と比較して、拡大画像における関心領域の情報量比率を大きくすることができ、第2学習済みモデル632による推定精度を向上させることができる。情報処理装置6は、関心領域の拡大画像と共に、当該拡大画像に基づき第2学習済みモデル632が出力(推定)した診断支援情報を関連付けて出力して、子画面等にて表示することにより、内視鏡の操作者に対し関心領域の拡大画像及び診断支援情報を効率的に提供することができる。
今回開示された実施の形態は全ての点で例示であって、制限的なものではないと考えられるべきである。各実施例にて記載されている技術的特徴は互いに組み合わせることができ、本発明の範囲は、特許請求の範囲内での全ての変更及び特許請求の範囲と均等の範囲が含まれることが意図される。
S 診断支援システム
10 内視鏡装置
15 キーボード
16 収容棚
20 内視鏡用プロセッサ
21 制御部
211 画像処理部
22 主記憶装置
23 補助記憶装置
24 通信部
25 タッチパネル
26 表示装置I/F
27 入力装置I/F
28 読取部
31 内視鏡用コネクタ
311 電気コネクタ
312 光コネクタ
33 光源
34 ポンプ
35 送水タンク
36 送気送水口金
40 内視鏡
43 操作部
431 制御ボタン
433 湾曲ノブ
44 挿入部(可撓管)
441 軟性部
442 湾曲部
443 先端部
444 撮像部
45 折止部
48 スコープコネクタ
49 ユニバーサルコード
50 表示装置
6 情報処理装置
61 通信部
62 制御部
621 取得部
622 拡大画像生成部
623 出力態様決定部
624 出力部
63 記憶部
631 学習済みモデル(関心領域学習モデル)
632 第2学習済みモデル(診断支援学習モデル)
64 入出力I/F
7 表示部
8 入力部

Claims (9)

  1. コンピュータに、
    内視鏡により撮像した画像を取得し、
    前記内視鏡により撮像した画像が入力された場合、画像に含まれる関心領域の位置を出力するように学習済みの学習済みモデルに、前記取得した画像を入力し、
    前記学習済みモデルから、前記取得した画像に含まれる関心領域の位置を取得し、
    取得した前記関心領域の位置に基づき、前記関心領域が含まれる画像の部分を拡大した拡大画像を出力する
    処理をコンピュータに実行させるプログラム。
  2. 前記学習済みモデルは、前記内視鏡により撮像した画像が入力された場合、画像に含まれる前記関心領域の位置及び精度確率を出力し、
    前記精度確率が所定値未満の場合、前記取得した画像が表示される画面とは、別個の画面にて表示されるように前記拡大画像を出力し、
    前記精度確率が所定値以上の場合、前記取得した画像が表示される画面にて、該画像から前記拡大画像に切り替える、又は前記取得した画像が表示される画面とは、別個の画面にて表示されるように前記拡大画像を出力する
    請求項1に記載のプログラム。
  3. 前記精度確率が所定値以上の場合における拡大画像の出力態様を決定する設定値は、予め記憶されており、
    前記設定値に応じた出力態様にて、前記精度確率が所定値以上の場合における前記拡大画像を出力する
    請求項2に記載のプログラム。
  4. 前記拡大画像を出力する場合、前記内視鏡の観察モードを特殊光観察モードに変更するための情報を出力する
    請求項1から請求項3のいずれか1項に記載のプログラム。
  5. 前記拡大画像を出力した以降に取得した画像に前記関心領域が含まれなくなった場合、前記拡大画像の出力を停止する
    請求項1から請求項4のいずれか1項に記載のプログラム。
  6. 前記学習済みモデルから、前記取得した画像に含まれる複数の前記関心領域の位置を取得した場合、取得した複数の前記関心領域の位置に基づき、複数の前記関心領域それぞれが含まれる画像の部分を拡大した拡大画像それぞれを出力する
    請求項1から請求項5のいずれか1項に記載のプログラム。
  7. 前記関心領域を含む拡大画像が入力された場合、前記関心領域に関する診断支援情報を出力するように学習済みの第2学習済みモデルに、前記拡大画像を入力し、
    前記第2学習済みモデルから、前記関心領域に関する前記診断支援情報を取得し、
    取得した診前記断支援情報と前記拡大画像とを関連付けて出力する
    請求項1から請求項6のいずれか1項に記載のプログラム。
  8. 内視鏡により撮像した画像を取得し、
    前記内視鏡により撮像した画像が入力された場合、画像に含まれる関心領域の位置を出力するように学習済みの学習済みモデルに、前記取得した画像を入力し、
    前記学習済みモデルから、前記取得した画像に含まれる関心領域の位置を取得し、
    取得した前記関心領域の位置に基づき、前記関心領域が含まれる画像の部分を拡大した拡大画像を出力する
    処理をコンピュータに実行させる情報処理方法。
  9. 内視鏡により撮像した画像を取得する画像取得部と、
    前記内視鏡により撮像した画像が入力された場合、画像に含まれる関心領域の位置を出力するように学習済みの学習済みモデルに、前記取得した画像を入力する入力部と、
    前記学習済みモデルから、前記取得した画像に含まれる関心領域の位置を取得する位置取得部と、
    取得した前記関心領域の位置に基づき、前記関心領域が含まれる画像の部分を拡大した拡大画像を出力する出力部と
    を備える情報処理装置。
JP2021034569A 2021-03-04 2021-03-04 プログラム、情報処理方法及び情報処理装置 Pending JP2022135013A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021034569A JP2022135013A (ja) 2021-03-04 2021-03-04 プログラム、情報処理方法及び情報処理装置
PCT/JP2021/045921 WO2022185651A1 (ja) 2021-03-04 2021-12-14 プログラム、情報処理方法及び情報処理装置
US18/039,770 US20240087723A1 (en) 2021-03-04 2021-12-14 Program, information processing method, and information processing device
CN202180080128.1A CN116583215A (zh) 2021-03-04 2021-12-14 程序、信息处理方法及信息处理装置
EP21929209.1A EP4233684A1 (en) 2021-03-04 2021-12-14 Program, information processing method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021034569A JP2022135013A (ja) 2021-03-04 2021-03-04 プログラム、情報処理方法及び情報処理装置

Publications (1)

Publication Number Publication Date
JP2022135013A true JP2022135013A (ja) 2022-09-15

Family

ID=83154246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021034569A Pending JP2022135013A (ja) 2021-03-04 2021-03-04 プログラム、情報処理方法及び情報処理装置

Country Status (5)

Country Link
US (1) US20240087723A1 (ja)
EP (1) EP4233684A1 (ja)
JP (1) JP2022135013A (ja)
CN (1) CN116583215A (ja)
WO (1) WO2022185651A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10861151B2 (en) * 2015-08-07 2020-12-08 The Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for simultaneously monitoring colonoscopic video quality and detecting polyps in colonoscopy
BR112020008774A2 (pt) * 2017-10-30 2020-12-22 Japanese Foundation For Cancer Research Aparelho para auxiliar no diagnóstico por imagem, método para a coleta de dados, método para auxiliar no diagnóstico por imagem e programa para auxiliar no diagnóstico por imagem
WO2020121906A1 (ja) * 2018-12-13 2020-06-18 ソニー株式会社 医療支援システム、医療支援装置及び医療支援方法
JP7337600B2 (ja) 2019-08-26 2023-09-04 日東電工株式会社 蓄電デバイス正極用活物質、蓄電デバイス用正極、及び蓄電デバイス

Also Published As

Publication number Publication date
US20240087723A1 (en) 2024-03-14
CN116583215A (zh) 2023-08-11
EP4233684A1 (en) 2023-08-30
WO2022185651A1 (ja) 2022-09-09

Similar Documents

Publication Publication Date Title
JP4676021B2 (ja) 診断支援装置、診断支援プログラムおよび診断支援方法
JP4408794B2 (ja) 画像処理プログラム
US20220351407A1 (en) Program, information processing method, and information processing device
US20160349972A1 (en) Data browse apparatus, data browse method, and storage medium
JP2007054401A (ja) 内視鏡挿入形状解析装置
WO2021250951A1 (ja) プログラム、情報処理方法及び情報処理装置
WO2020195807A1 (ja) 内視鏡用プロセッサ、情報処理装置、プログラム、情報処理方法および学習モデルの生成方法
JP2014230612A (ja) 内視鏡観察支援装置
US20230353879A1 (en) Program, information processing method, and endoscope system
US20220095889A1 (en) Program, information processing method, and information processing apparatus
US20220084194A1 (en) Computer program, processor for endoscope, and information processing method
US20220327707A1 (en) Program, information processing method, and information processing device
US20180307409A1 (en) Method and apparatus for displaying function of button of ultrasound apparatus on the button
WO2022185651A1 (ja) プログラム、情報処理方法及び情報処理装置
KR20220147957A (ko) 생체 이미지 조직 표시 방법 및 장치
US20150054855A1 (en) Image processing apparatus, image processing system, image processing method, and program
JP2008067915A (ja) 医用画像表示装置
CN114612461A (zh) 图像处理方法、装置、存储介质及电子设备
US20220409324A1 (en) Systems and methods for telestration with spatial memory
EP4088645A1 (en) Endoscopy assistance device, endoscopy assistance method, and computer-readable recording medium
JP2009112507A (ja) 情報制御方法及び装置、並びに内視鏡システム
WO2023042546A1 (ja) コンピュータプログラム、情報処理方法及び内視鏡
WO2021149169A1 (ja) 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体
US20240180395A1 (en) Endoscopic examination support apparatus, endoscopic examination support method, and recording medium
KR102462656B1 (ko) 캡슐 내시경 영상의 디스플레이 시스템 및 3차원 파노라믹 뷰의 생성 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521