JP2024041891A - コンピュータプログラム、学習モデルの生成方法、及び支援装置 - Google Patents

コンピュータプログラム、学習モデルの生成方法、及び支援装置 Download PDF

Info

Publication number
JP2024041891A
JP2024041891A JP2024002079A JP2024002079A JP2024041891A JP 2024041891 A JP2024041891 A JP 2024041891A JP 2024002079 A JP2024002079 A JP 2024002079A JP 2024002079 A JP2024002079 A JP 2024002079A JP 2024041891 A JP2024041891 A JP 2024041891A
Authority
JP
Japan
Prior art keywords
tissue
surgical field
learning model
field image
target tissue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024002079A
Other languages
English (en)
Inventor
直 小林
勇太 熊頭
成昊 銭谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ANAUT INC.
Original Assignee
ANAUT INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ANAUT INC. filed Critical ANAUT INC.
Publication of JP2024041891A publication Critical patent/JP2024041891A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】コンピュータプログラム、学習モデルの生成方法、及び支援装置の提供。【解決手段】コンピュータに、鏡視下手術の術野を撮像して得られる術野画像を取得し、術野画像を入力した場合、対象組織に関する情報を出力するように学習された学習モデルを用いて、取得した術野画像に含まれる対象組織部分を該対象組織部分の表面に現れる血管組織部分と区別して認識する処理を実行させる。【選択図】図9

Description

本発明は、コンピュータプログラム、学習モデルの生成方法、及び支援装置に関する。
腹腔鏡手術では、例えば患者の体内に形成された悪性腫瘍などの病変部を取り除く手術を行う。このとき、患者の体内を腹腔鏡により撮像し、得られた術野画像をモニタに表示させる(例えば、特許文献1を参照)。
特開2005-287839号公報
従来、術者が注意を要するような神経や尿管などの組織を術野画像から認識し、術者に報知することは困難であった。
本発明は、術野画像から神経や尿管などの組織の認識結果を出力できるコンピュータプログラム、学習モデルの生成方法、及び支援装置を提供することを目的とする。
本発明の一態様におけるコンピュータプログラムは、コンピュータに、鏡視下手術の術野を撮像して得られる術野画像を取得し、術野画像を入力した場合、対象組織に関する情報を出力するように学習された学習モデルを用いて、取得した術野画像に含まれる対象組織部分を該対象組織部分の表面に現れる血管組織部分と区別して認識する処理を実行させるためのコンピュータプログラムである。
本発明の一態様における学習モデルの生成方法は、コンピュータが、鏡視下手術の術野を撮像して得られる術野画像と、該術野画像に含まれる対象組織部分を該対象組織部分の表面に現れる血管組織部分と区別してラベル付けした正解データとを含む訓練データを取得し、取得した訓練データのセットに基づき、術野画像を入力した場合、対象組織に関する情報を出力する学習モデルを生成する。
本発明の一態様における支援装置は、鏡視下手術の術野を撮像して得られる術野画像を取得する取得部と、術野画像を入力した場合、対象組織に関する情報を出力するように学習された学習モデルを用いて、取得した術野画像に含まれる対象組織部分を該対象組織部分の表面に現れる血管組織部分と区別して認識する認識部と、該認識部の認識結果に基づき、前記鏡視下手術に関する支援情報を出力する出力部とを備える。
本願によれば、術野画像から神経や尿管などの組織の認識結果を出力できる。
実施の形態1に係る腹腔鏡手術支援システムの概略構成を説明する模式図である。 支援装置の内部構成を説明するブロック図である。 術野画像の一例を示す模式図である。 学習モデルの構成例を示す模式図である。 学習モデルによる認識結果を示す模式図である。 実施の形態1の認識結果を示す部分拡大図である。 比較例の認識結果を示す部分拡大図である。 学習モデルの生成手順を説明するフローチャートである。 手術支援の実行手順を説明するフローチャートである。 表示装置における表示例を示す模式図である。 実施の形態2における術野画像の例を示す模式図である。 実施の形態2における学習モデルの構成を説明する説明図である。 実施の形態2における認識結果の表示例を示す模式図である。 実施の形態3における術野画像の例を示す模式図である。 実施の形態3における学習モデルの構成を説明する説明図である。 実施の形態3における認識結果の表示例を示す模式図である。 実施の形態4における表示例を示す模式図である。 実施の形態5における表示手法を説明する説明図である。 実施の形態6に係る支援装置が実行する処理の手順を説明するフローチャートである。 実施の形態6における表示例を示す模式図である。 実施の形態7における学習モデルの構成を説明する説明図である。 実施の形態7における認識結果の表示例を示す模式図である。 実施の形態8における学習モデルの構成を説明する説明図である。 臓器境界の特定手法を説明する説明図である。 実施の形態8に係る支援装置が実行する処理の手順を説明するフローチャートである。
以下、本発明を腹腔鏡手術の支援システムに適用した形態について、図面を用いて具体的に説明する。なお、本発明は、腹腔鏡手術に限らず、胸腔鏡、消化管内視鏡、膀胱鏡、関節鏡、ロボット支援下内視鏡、脊椎内視鏡、手術顕微鏡、神経内視鏡、外視鏡など撮像装置を用いた鏡視下手術全般に適用可能である。
(実施の形態1)
図1は実施の形態1に係る腹腔鏡手術支援システムの概略構成を説明する模式図である。腹腔鏡手術では、開腹手術を実施する代わりに、トロッカ10と呼ばれる開孔器具を患者の腹壁に複数個取り付け、トロッカ10に設けられた開孔から、腹腔鏡11、エネルギ処置具12、鉗子13などの器具を患者の体内に挿入する。術者は、腹腔鏡11によって撮像された患者体内の画像(術野画像)をリアルタイムに見ながら、エネルギ処置具12を用いて患部を切除するなどの処置を行う。腹腔鏡11、エネルギ処置具12、鉗子13などの術具は、術者又はロボットなどにより保持される。術者とは、腹腔鏡手術に関わる医療従事者であり、執刀医、助手、看護師、手術をモニタしている医師などを含む。
腹腔鏡11は、患者の体内に挿入される挿入部11A、挿入部11Aの先端部分に内蔵される撮像装置11B、挿入部11Aの後端部分に設けられる操作部11C、及びカメラコントロールユニット(CCU)110や光源装置120に接続するためのユニバーサルコード11Dを備える。
腹腔鏡11の挿入部11Aは、硬性管により形成されている。硬性管の先端部分には湾曲部が設けられている。湾曲部における湾曲機構は一般的な腹腔鏡に組み込まれている周知の機構であり、操作部11Cの操作に連動した操作ワイヤの牽引によって例えば上下左右の4方向に湾曲するように構成されている。なお、腹腔鏡11は、上述したような湾曲部を有する軟性鏡に限らず、湾曲部を持たない硬性鏡であってもよい。
撮像装置11Bは、CMOS(Complementary Metal Oxide Semiconductor)などの固体撮像素子、タイミングジェネレータ(TG)やアナログ信号処理回路(AFE)などを備えたドライバ回路を備える。撮像装置11Bのドライバ回路は、TGから出力されるクロック信号に同期して固体撮像素子から出力されるRGB各色の信号を取り込み、AFEにおいて、ノイズ除去、増幅、AD変換などの必要な処理を施し、デジタル形式の画像データを生成する。撮像装置11Bのドライバ回路は、生成した画像データを、ユニバーサルコード11Dを介して、CCU110へ伝送する。
操作部11Cは、術者によって操作されるアングルレバーやリモートスイッチなどを備える。アングルレバーは、湾曲部を湾曲させるための操作を受付ける操作具である。アングルレバーに代えて、湾曲操作ノブ、ジョイスティックなどが設けられてもよい。リモートスイッチは、例えば、観察画像を動画表示又は静止画表示に切り替える切替スイッチ、観察画像を拡大又は縮小させるズームスイッチなどを含む。リモートスイッチには、予め定められた特定の機能が割り当てられてもよく、術者によって設定された機能が割り当てられてもよい。
また、操作部11Cには、リニア共振アクチュエータやピエゾアクチュエータなどにより構成される振動子が内蔵されてもよい。腹腔鏡11を操作する術者に対して報知すべき事象が発生した場合、CCU110は、操作部11Cに内蔵された振動子を作動させることによって操作部11Cを振動させ、前記事象の発生を術者に知らせてもよい。
腹腔鏡11の挿入部11A、操作部11C、及びユニバーサルコード11Dの内部には、CCU110から撮像装置11Bへ出力される制御信号や撮像装置11Bから出力される画像データを伝送するための伝送ケーブル、光源装置120から出射される照明光を挿入部11Aの先端部分まで導くライトガイドなどが配されている。光源装置120から出射される照明光は、ライトガイドを通じて挿入部11Aの先端部分まで導かれ、挿入部11Aの先端部分に設けられた照明レンズを介して術野に照射される。なお、本実施の形態では、光源装置120を独立した装置として記載したが、光源装置120はCCU110に内蔵される構成であってもよい。
CCU110は、腹腔鏡11が備える撮像装置11Bの動作を制御する制御回路、ユニバーサルコード11Dを通じて入力される撮像装置11Bからの画像データを処理する画像処理回路等を備える。制御回路は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを備え、CCU110が備える各種スイッチの操作や腹腔鏡11が備える操作部11Cの操作に応じて、撮像装置11Bへ制御信号を出力し、撮像開始、撮像停止、ズームなどの制御を行う。画像処理回路は、DSP(Digital Signal Processor)や画像メモリなどを備え、ユニバーサルコード11Dを通じて入力される画像データに対して、色分離、色補間、ゲイン補正、ホワイトバランス調整、ガンマ補正等の適宜の処理を施す。CCU110は、処理後の画像データから動画用のフレーム画像を生成し、生成した各フレーム画像を後述する支援装置200へ順次出力する。フレーム画像のフレームレートは、例えば30FPS(Frames Per Second)である。
CCU110は、NTSC(National Television System Committee)、PAL(Phase Alternating Line)、DICOM(Digital Imaging and COmmunication in Medicine)などの所定の規格に準拠した映像データを生成してもよい。CCU110は、生成した映像データを表示装置130へ出力することにより、表示装置130の表示画面に術野画像(映像)をリアルタイムに表示させることができる。表示装置130は、液晶パネルや有機EL(Electro-Luminescence)パネルなどを備えたモニタである。また、CCU110は、生成した映像データを録画装置140へ出力し、録画装置140に映像データを記録させてもよい。録画装置140は、CCU110から出力される映像データを、各手術を識別する識別子、手術日時、手術場所、患者名、術者名などと共に記録するHDD(Hard Disk Drive)などの記録装置を備える。
支援装置200は、CCU110から入力される画像データ(すなわち、術野を撮像して得られる術野画像の画像データ)に基づき、腹腔鏡手術に関する支援情報を生成する。具体的には、支援装置200は、認識対象の対象組織と対象組織の表面に現れる血管組織(表面血管)とを区別して認識し、認識した対象組織に関する情報を表示装置130に表示させる処理を行う。実施の形態1~6では、対象組織として神経組織を認識する構成について説明し、後述する実施の形態7では、対象組織として尿管組織を認識する構成について説明する。対象組織は、神経組織や尿管組織に限らず、動脈、精管、胆管、骨、筋肉など表面血管が存在する任意の臓器であってもよい。
本実施の形態では、支援装置200において神経組織の認識処理を実行する構成について説明するが、支援装置200と同等の機能をCCU110に設け、CCU110において神経組織の認識処理を実行する構成としてもよい。
以下、支援装置200の内部構成、支援装置200が実行する認識処理及び表示処理について説明する。
図2は支援装置200の内部構成を説明するブロック図である。支援装置200は、制御部201、記憶部202、操作部203、入力部204、出力部205、通信部206などを備える専用又は汎用のコンピュータである。支援装置200は、手術室内に設置されるコンピュータであってもよく、手術室の外部に設置されるコンピュータであってもよい。また、支援装置200は、腹腔鏡手術を行う病院内に設置されるサーバであってもよく、病院外に設置されるサーバであってもよい。
制御部201は、例えば、CPU、ROM、及びRAMなどを備える。制御部201が備えるROMには、支援装置200が備えるハードウェア各部の動作を制御する制御プログラム等が記憶される。制御部201内のCPUは、ROMに記憶された制御プログラムや後述する記憶部202に記憶された各種コンピュータプログラムを実行し、ハードウェア各部の動作を制御することによって、装置全体を本願における支援装置として機能させる。制御部201が備えるRAMには、演算の実行中に利用されるデータ等が一時的に記憶される。
本実施の形態では、制御部201がCPU、ROM、及びRAMを備える構成としたが、制御部201の構成は任意であり、例えば、GPU(Graphics Processing Unit)、量子プロセッサ、揮発性又は不揮発性のメモリ等を1又は複数備えた演算回路や制御回路であってもよい。また、制御部201は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を有するものであってもよい。
記憶部202は、ハードディスク、フラッシュメモリなどを用いた記憶装置を備える。記憶部202には、制御部201によって実行されるコンピュータプログラム、外部から取得した各種データ、装置内部で生成した各種データ等が記憶される。
記憶部202に記憶されるコンピュータプログラムは、術野画像に含まれる対象組織部分を血管組織部分と区別して認識するための処理を制御部201に実行させる認識処理プログラムPG1、認識結果に基づく支援情報を表示装置130に表示させるための処理を制御部201に実行させる表示処理プログラムPG2、学習モデル310を生成するための学習処理プログラムPG3を含む。なお、認識処理プログラムPG1及び表示処理プログラムPG2は、それぞれ独立したコンピュータプログラムである必要はなく、1つのコンピュータプログラムとして実装されてもよい。これらのプログラムは、例えば、コンピュータプログラムを読み取り可能に記録した非一時的な記録媒体Mにより提供される。記録媒体Mは、CD-ROM、USBメモリ、SD(Secure Digital)カードなどの可搬型メモリである。制御部201は、図に示していない読取装置を用いて、記録媒体Mから所望のコンピュータプログラムを読み取り、読み取ったコンピュータプログラムを記憶部202に記憶させる。代替的に、上記コンピュータプログラムは、通信部206を用いた通信により提供されてもよい。
また、記憶部202には、上述した認識処理プログラムPG1において用いられる学習モデル310が記憶される。学習モデル310は、術野画像の入力に対して、対象組織に関する認識結果を出力するように学習された学習モデルである。学習モデル310はその定義情報によって記述される。学習モデル310の定義情報は、学習モデル310が備える層の情報、各層を構成するノードの情報、ノード間の重み付け及びバイアスなどのパラメータを含む。これらのパラメータは、術野を撮像して得られる術野画像と、術野画像内の対象組織部分を示す正解データとを訓練データとして、所定の学習アルゴリズムを用いて学習される。学習モデル310の構成及び生成手順については後に詳述する。
操作部203は、キーボード、マウス、タッチパネル、非接触パネル、スタイラスペン、マイクロフォンによる音声入力などの操作デバイスを備える。操作部203は、術者などによる操作を受付け、受付けた操作に関する情報を制御部201へ出力する。制御部201は、操作部203から入力される操作情報に応じて適宜の処理を実行する。なお、本実施の形態では、支援装置200が操作部203を備える構成としたが、外部に接続されたCCU110などの各種機器を通じて操作を受付ける構成であってもよい。
入力部204は、入力機器を接続する接続インタフェースを備える。本実施の形態において、入力部204に接続される入力機器はCCU110である。入力部204には、腹腔鏡11によって撮像され、CCU110によって処理が施された術野画像の画像データが入力される。入力部204は、入力された画像データを制御部201へ出力する。また、制御部201は、入力部204から取得した画像データを記憶部202に記憶させてもよい。
出力部205は、出力機器を接続する接続インタフェースを備える。本実施の形態において、出力部205に接続される出力機器は表示装置130である。制御部201は、学習モデル310による認識結果など、術者等に報知すべき情報を生成した場合、生成した情報を出力部205より表示装置130へ出力することにより、表示装置130に情報を表示させる。本実施の形態では、出力機器として表示装置130を出力部205に接続する構成としたが、音を出力するスピーカなどの出力機器が出力部205に接続されてもよい。
通信部206は、各種のデータを送受信する通信インタフェースを備える。通信部206が備える通信インタフェースは、イーサネット(登録商標)やWiFi(登録商標)において用いられる有線又は無線の通信規格に準じた通信インタフェースである。通信部206は、送信すべきデータが制御部201から入力された場合、指定された宛先へ送信すべきデータを送信する。また、通信部206は、外部装置から送信されたデータを受信した場合、受信したデータを制御部201へ出力する。
支援装置200は、単一のコンピュータである必要はなく、複数のコンピュータや周辺機器からなるコンピュータシステムであってもよい。更に、支援装置200は、ソフトウェアによって仮想的に構築される仮想マシンであってもよい。
次に、支援装置200に入力される術野画像について説明する。
図3は術野画像の一例を示す模式図である。本実施の形態における術野画像は、患者の腹腔内を腹腔鏡11により撮像して得られる画像である。術野画像は、腹腔鏡11の撮像装置11Bが出力する生の画像である必要はなく、CCU110などによって処理が施された画像(フレーム画像)であればよい。
腹腔鏡11により撮像される術野には、臓器、血管、神経などを構成する組織、組織間に存在する結合組織、腫瘍などの病変部を含む組織、組織を被う膜や層などの組織が含まれている。術者は、これらの解剖学的構造の関係を把握しながら、鉗子やエネルギ処置具などの器具を用いて、病変部を含む組織の剥離を行う。図3に例として示す術野画像は、鉗子13を用いて臓器31を被う膜32を牽引し、エネルギ処置具12を用いて病変部33を含む組織を剥離しようとしている場面を示している。また、図3の例は、病変部33の近傍において神経34が図の上下方向に走行している様子を示している。鏡視下手術において、牽引や剥離を行う過程で神経が損傷した場合、術後において機能障害が発生する可能性がある。例えば、大腸手術における下腹神経の損傷は排尿障害の原因となり得る。また、食道切除や肺切除における半回神経の損傷は嚥下障害の原因となり得る。
術中の神経損傷を回避するためには、神経の走行方向を把握することが重要となる。しかしながら、神経が完全に露出することは稀であり、血管などの他の組織と重なっていることも多いため、術者にとって神経の走行方向を把握することは必ずしも容易ではない。そこで、本実施の形態に係る支援装置200は、学習モデル310を用いて、術野画像に含まれる神経組織部分を血管組織部分と区別して認識し、認識結果に基づき、腹腔鏡手術に関する支援情報を出力する。
以下、学習モデル310の構成例について説明する。
図4は学習モデル310の構成例を示す模式図である。学習モデル310は、画像セグメンテーションを行うための学習モデルであり、例えばSegNetなどの畳み込み層を備えたニューラルネットワークにより構築される。学習モデル310は、SegNetに限らず、FCN(Fully Convolutional Network)、U-Net(U-Shaped Network)、PSPNet(Pyramid Scene Parsing Network)など、画像セグメンテーションが行える任意のニューラルネットワークを用いて構築されてもよい。また、学習モデル310は、画像セグメンテーション用のニューラルネットワークに代えて、YOLO(You Only Look Once)、SSD(Single Shot Multi-Box Detector)など物体検出用のニューラルネットワークを用いて構築されてもよい。
本実施の形態において、学習モデル310への入力画像は、腹腔鏡11から得られる術野画像である。学習モデル310は、術野画像の入力に対し、術野画像に含まれる神経組織の認識結果を示す画像を出力するように学習される。
学習モデル310は、例えば、エンコーダ311、デコーダ312、及びソフトマックス層313を備える。エンコーダ311は、畳み込み層とプーリング層とを交互に配置して構成される。畳み込み層は2~3層に多層化されている。図4の例では、畳み込み層にはハッチングを付さずに示し、プーリング層にはハッチングを付して示している。
畳み込み層では、入力されるデータと、それぞれにおいて定められたサイズ(例えば、3×3や5×5など)のフィルタとの畳み込み演算を行う。すなわち、フィルタの各要素に対応する位置に入力された入力値と、フィルタに予め設定された重み係数とを各要素毎に乗算し、これら要素毎の乗算値の線形和を算出する。算出した線形和に、設定されたバイアスを加算することによって、畳み込み層における出力が得られる。なお、畳み込み演算の結果は活性化関数によって変換されてもよい。活性化関数として、例えばReLU(Rectified Linear Unit)を用いることができる。畳み込み層の出力は、入力データの特徴を抽出した特徴マップを表している。
プーリング層では、入力側に接続された上位層である畳み込み層から出力された特徴マップの局所的な統計量を算出する。具体的には、上位層の位置に対応する所定サイズ(例えば、2×2、3×3)のウインドウを設定し、ウインドウ内の入力値から局所の統計量を算出する。統計量としては、例えば最大値を採用できる。プーリング層から出力される特徴マップのサイズは、ウインドウのサイズに応じて縮小(ダウンサンプリング)される。図4の例は、エンコーダ311において畳み込み層における演算とプーリング層における演算とを順次繰り返すことによって、224画素×224画素の入力画像を、112×112、56×56、28×28、…、1×1の特徴マップに順次ダウンサンプリングしていることを示している。
エンコーダ311の出力(図4の例では1×1の特徴マップ)は、デコーダ312に入力される。デコーダ312は、逆畳み込み層と逆プーリング層とを交互に配置して構成される。逆畳み込み層は2~3層に多層化されている。図4の例では、逆畳み込み層にはハッチングを付さずに示し、逆プーリング層にはハッチングを付して示している。
逆畳み込み層では、入力された特徴マップに対して、逆畳み込み演算を行う。逆畳み込み演算とは、入力された特徴マップが特定のフィルタを用いて畳み込み演算された結果であるという推定の下、畳み込み演算される前の特徴マップを復元する演算である。この演算では、特定のフィルタを行列で表したとき、この行列に対する転置行列と、入力された特徴マップとの積を算出することで、出力用の特徴マップを生成する。なお、逆畳み込み層の演算結果は、上述したReLUなどの活性化関数によって変換されてもよい。
デコーダ312が備える逆プーリング層は、エンコーダ311が備えるプーリング層に1対1で個別に対応付けられており、対応付けられている対は実質的に同一のサイズを有する。逆プーリング層は、エンコーダ311のプーリング層においてダウンサンプリングされた特徴マップのサイズを再び拡大(アップサンプリング)する。図4の例は、デコーダ312において畳み込み層における演算とプーリング層における演算とを順次繰り返すことによって、1×1、7×7、14×14、…、224×224の特徴マップに順次アップサンプリングしていることを示している。
デコーダ312の出力(図4の例では224×224の特徴マップ)は、ソフトマックス層313に入力される。ソフトマックス層313は、入力側に接続された逆畳み込み層からの入力値にソフトマックス関数を適用することにより、各位置(画素)における部位を識別するラベルの確率を出力する。本実施の形態では、神経組織を識別するラベルを設定し、神経組織に属するか否かを画素単位で識別すればよい。ソフトマックス層313から出力されるラベルの確率が閾値以上(例えば70%以上)の画素を抽出することによって、神経組織部分の認識結果を示す画像(以下、認識画像という)が得られる。
なお、図4の例では、224画素×224画素の画像を学習モデル310への入力画像としているが、入力画像のサイズは上記に限定されるものではなく、支援装置200の処理能力、腹腔鏡11から得られる術野画像のサイズ等に応じて、適宜設定することが可能である。また、学習モデル310への入力画像は、腹腔鏡11より得られる術野画像の全体である必要はなく、術野画像の注目領域を切り出して生成される部分画像であってもよい。処置対象を含むような注目領域は術野画像の中央付近に位置することが多いので、例えば、元の半分程度のサイズとなるように術野画像の中央付近を矩形状に切り出した部分画像を用いてもよい。学習モデル310に入力する画像のサイズを小さくすることにより、処理速度を上げつつ、認識精度を高めることができる。
図5は学習モデル310による認識結果を示す模式図である。図5の例では、学習モデル310を用いて認識した神経組織部分51にハッチングを付して示し、それ以外の臓器や膜、術具の部分を参考として破線により示している。支援装置200の制御部201は、認識した神経組織部分を判別可能に表示するために神経組織の認識画像を生成する。認識画像は、術野画像と同一サイズを有し、神経組織として認識された画素に特定の色を割り当てた画像である。神経組織に割り当てる色は任意に設定される。例えば、神経組織に割り当てる色は神経と同様の白色系の色であってもよく、人体内部には存在しない青系の色であってもよい。また、認識画像を構成する各画素には透過度を表す情報が付加され、神経組織として認識された画素には不透過の値、それ以外の画素は透過の値が設定される。支援装置200は、このように生成された認識画像を術野画像に重畳して表示することにより、神経組織部分を特定の色を有する構造として術野画像上に表示することができる。
図6は実施の形態1の認識結果を示す部分拡大図である。図6は、術野画像に含まれる神経組織部分61と、神経組織部分61の表面に現れる血管組織部分62とを区別して認識した結果を示している。図6の例では、血管組織部分62を除いて認識した神経組織部分61のみをハッチングを付して示している。この認識結果からは、図に示す2つの矢符の方向に並走する2本の神経の存在を確認することができる。
図7は比較例の認識結果を示す部分拡大図である。図7の比較例は、図6と同一領域を、表面に現れる血管組織部分と区別せずに神経組織部分71を認識した結果を示している。この認識結果からは、並走する2本の神経の存在を明確に把握することはできないので、比較的太い1本の神経が矢符の方向に走行していると解釈される虞がある。
本実施の形態では、術野画像に含まれる神経組織部分と、神経組織部分の表面に現れる血管組織部分とを区別して認識するために、画素単位で神経組織に該当するか否かを認識する学習モデル310を生成する。学習モデル310を生成する準備段階として、撮像済みの術野画像に対してアノテーションが実施される。
学習モデル310を生成する準備段階において、作業者(医師などの専門家)は、録画装置140に録画された術野画像を表示装置130に表示させ、操作部203として備えるマウスやスタイラスペンなどを用いて、神経組織に該当する部分を画素単位で指定することによりアノテーションを行う。このとき、作業者は、神経組織の表面に現れる血管組織を除外して、神経組織に該当する部分を画素単位で指定することが好ましい。アノテーションに用いられた多数の術野画像と、各術野画像において指定された神経組織に該当する画素の位置を示すデータ(正解データ)とのセットは、学習モデル310を生成するための訓練データとして支援装置200の記憶部202に記憶される。訓練データの数を増やすために、透視変換や鏡映処理などを適用して生成した術野画像と、当該術野画像に対する正解データとのセットを訓練データに含めてもよい。更に、学習が進めば、術野画像と、術野画像を入力して得られる学習モデル310の認識結果(正解データ)とのセットを訓練データに含めてもよい。
更に、アノテーションを行う際に、作業者は、除外すべき血管組織に該当する画素を不正解データとしてラベル付けしてもよい。アノテーションに用いられた術野画像と、各術野画像において指定された神経組織に該当する画素の位置を示すデータ(正解データ)と、指定された血管組織に該当する画素の位置を示すデータ(不正解データ)とのセットを、学習モデル310を生成するための訓練データとして支援装置200の記憶部202に記憶させてもよい。
支援装置200は、上述した訓練データを用いて、学習モデル310を生成する。図8は学習モデル310の生成手順を説明するフローチャートである。支援装置200の制御部201は、記憶部202から学習処理プログラムPG3を読み出し、以下の手順を実行することにより、学習モデル310を生成する。なお、学習を開始する前の段階では、学習モデル310を記述する定義情報には、初期値が与えられているものとする。
制御部201は、記憶部202にアクセスし、学習モデル310を生成するために事前に準備された訓練データから、一組の訓練データを選択する(ステップS101)。制御部201は、選択した訓練データに含まれる術野画像を学習モデル310へ入力し(ステップS102)、学習モデル310による演算を実行する(ステップS103)。すなわち、制御部201は、入力した術野画像から特徴マップを生成し、生成した特徴マップを順次ダウンサンプリングするエンコーダ311による演算、エンコーダ311から入力される特徴マップを順次アップサンプリングするデコーダ312による演算、及びデコーダ312より最終的に得られる特徴マップの各画素を識別するソフトマックス層313による演算を実行する。
制御部201は、学習モデル310から演算結果を取得し、取得した演算結果を評価する(ステップS104)。例えば、制御部201は、演算結果として得られる神経組織の画像データと、訓練データに含まれる正解データとの類似度を算出することによって、演算結果を評価すればよい。類似度は、例えばJaccard係数により算出される。Jaccard係数は、学習モデル310によって抽出した神経組織部分をA、正解データに含まれる神経組織部分をBとしたとき、A∩B/A∪B×100(%)により与えられる。Jaccard係数に代えて、Dice係数やSimpson係数を算出してもよく、その他の既存の手法を用いて類似度を算出してもよい。訓練データに不正解データが含まれている場合、制御部201は、不正解データを参照して学習を進めてもよい。例えば、学習モデル310によって抽出した神経組織部分が不正解データに含まれる血管組織部分に該当する場合、制御部201は、類似度を減算する処理を行えばよい。
制御部201は、演算結果の評価に基づき、学習が完了したか否かを判断する(ステップS105)。制御部201は、予め設定した閾値以上の類似度が得られた場合に、学習が完了したと判断することができる。
学習が完了していないと判断した場合(S105:NO)、制御部201は、逆誤差伝搬法を用いて、学習モデル310の各層における重み係数及びバイアスを学習モデル310の出力側から入力側に向かって順次的に更新する(ステップS106)。制御部201は、各層の重み係数及びバイアスを更新した後、処理をステップS101へ戻し、ステップS101からステップS105までの処理を再度実行する。
ステップS105において学習が完了したと判断した場合(S105:YES)、学習済みの学習モデル310が得られるので、制御部201は、本フローチャートによる処理を終了する。
本実施の形態では、支援装置200において学習モデル310を生成する構成としたが、サーバ装置などの外部コンピュータを用いて学習モデル310を生成してもよい。この場合、支援装置200は、外部コンピュータにて生成された学習モデル310を通信等の手段を用いて取得し、取得した学習モデル310を記憶部202に記憶させればよい。
支援装置200は、学習モデル310が生成された後の運用フェーズにおいて手術支援を行う。図9は手術支援の実行手順を説明するフローチャートである。支援装置200の制御部201は、記憶部202から認識処理プログラムPG1及び表示処理プログラムPG2を読み出して実行することにより、以下の手順を実行する。腹腔鏡手術が開始されると、腹腔鏡11の撮像装置11Bにより術野を撮像して得られる術野画像はユニバーサルコード11Dを介してCCU110へ随時出力される。支援装置200の制御部201は、CCU110から出力される術野画像を入力部204より取得する(ステップS121)。制御部201は、術野画像を取得する都度、以下の処理を実行する。
制御部201は、取得した術野画像を学習モデル310に入力し、学習モデル310を用いた演算を実行し(ステップS122)、術野画像に含まれる神経組織部分を認識する(ステップS123)。すなわち、制御部201は、入力された術野画像から特徴マップを生成し、生成した特徴マップを順次ダウンサンプリングするエンコーダ311による演算、エンコーダ311から入力された特徴マップを順次アップサンプリングするデコーダ312による演算、及びデコーダ312より最終的に得られる特徴マップの各画素を識別するソフトマックス層313による演算を実行する。また、制御部201は、ソフトマックス層313から出力されるラベルの確率が閾値以上(例えば70%以上)の画素を神経組織部分として認識する。
学習モデル310を生成する際に、術者の中心視野にある神経組織を認識するようにアノテーションが行われていた場合、ステップS123では、術者の中心視野に存在する神経組織のみが認識される。また、術者の中心視野にない神経組織を認識するようにアノテーションが行われていた場合、ステップS123では、術者の中心視野にない神経組織のみが認識される。更に、テンションが掛かった状態の神経組織を認識するようにアノテーションが行われていた場合、ステップS123では、神経組織が緊張した前の状態から緊張状態に移行した段階で神経組織として認識される。更に、術野に露出し始めた神経組織を認識するようにアノテーションが行われていた場合、臓器などの組織を覆う膜や層を牽引又は切除して、神経組織が露出し始めた段階で神経組織として認識される。
制御部201は、学習モデル310を用いて認識した神経組織部分を判別可能に表示するために、神経組織の認識画像を生成する(ステップS124)。制御部201は、神経組織として認識された画素には、神経と同様の白色系の色や人体に存在しない青系の色など特定の色を割り当て、神経組織以外の画素には背景が透過するような透過度を設定すればよい。
制御部201は、ステップS121で取得した術野画像と共に、ステップS124で生成した神経組織の認識画像を出力部205より表示装置130へ出力し、術野画像上に認識画像を重ねて表示装置130に表示させる(ステップS125)。これにより、学習モデル310を用いて認識した神経組織部分は特定の色を有する構造として術野画像上に表示される。
図10は表示装置130における表示例を示す模式図である。図面作成の都合上、図10の表示例では、学習モデル310を用いて認識された神経組織部分101はハッチングを付した領域として示されている。実際には、神経組織部分101は画素単位で白色系や青系などの特定の色で塗られるため、術者は、表示装置130の表示画面を閲覧することにより、神経組織部分101を血管組織部分102と区別して明確に認識することができる。
本実施の形態では、神経組織に該当する画素を白色系や青系の色で着色して表示する構成としたが、予め設定された表示色(白色系や青系の色)と、背景の術野画像の表示色とを平均化し、平均化した色で着色して表示してもよい。例えば、神経組織部分について設定されている表示色を(R1,G1,B1)、背景の術野画像における神経組織部分の表示色を(R2,G2,B2)とした場合、制御部201は、認識した神経組織部分を((R1+R2)/2,(G1+G2)/2,(B1+B2)/2)の色で着色して表示すればよい。代替的に、重み係数W1,W2を導入し、認識した血管部分を(W1×R1+W2×R2,W1×G1+W2×G2,W1×B1+W2×B2)の色で着色して表示してもよい。
また、認識した対象組織部分(本実施の形態では神経組織部分)を点滅表示してもよい。すなわち、制御部201は、認識した対象組織部分を第1設定時間(例えば2秒間)だけ表示する処理と、認識した対象組織部分を第2設定時間(例えば2秒間)だけ非表示にする処理とを交互に繰り返し実行することにより、対象組織部分の表示及び非表示を周期的に切り替えてもよい。対象組織部分の表示時間及び非表示時間は適宜設定されるとよい。また、患者の心拍や脈拍などの生体情報に同期させて、対象組織部分の表示及び非表示を切り替える構成としてもよい。更に、対象組織部分を点滅表示する構成に代えて、血管組織部分を点滅表示する構成としてもよい。血管組織部分を除く対象組織部分のみを点滅表示したり、血管組織部分のみを点滅表示したりすることにより、対象組織部分を血管組織部分と区別して強調表示することができる。
図9に示すフローチャートでは、術野画像に含まれる神経組織を認識した場合、当該神経組織部分の認識画像を術野画像に重畳表示する構成としたが、表示指示が与えられた場合にのみ重畳表示する構成としてもよい。表示指示は、支援装置200の操作部203により与えられてもよく、腹腔鏡11の操作部11Cにより与えられてもよい。また、表示指示は、図に示してないフットスイッチ等により与えられてもよい。
また、本実施の形態では、神経組織の認識画像を術野画像に重畳表示する構成としたが、神経組織の検出を音又は音声により術者に報知してもよい。
更に、支援装置200の制御部201は、神経組織の認識結果に基づき、エネルギ処置具12や手術用ロボット(不図示)などの医療デバイスを制御するための制御信号を生成し、生成した制御信号を医療デバイスへ出力する構成としてもよい。
以上のように、本実施の形態では、学習モデル310を用いて神経組織を認識し、認識した神経組織を画素単位で判別可能に表示することができるので、腹腔鏡手術における視覚支援を行うことができる。
神経の認識手法として、仮に、神経組織と、神経組織の表面に現れる血管組織とを区別せずに一体の領域として認識する手法を採用した場合、術野画像内の神経を含む領域はベタ塗りの画像で覆われることになるため、神経自体が見えづらくなり、手術を行う術者にとって必要な情報がかえって失われる可能性がある。
これに対して、本実施の形態では、認識した神経組織を画素単位で判別可能に表示することができるので、認識した神経組織を見やすく表示することができる。また、神経組織と、神経組織の表面に現れる血管組織とを区別して表示することで神経の走行方向がより強調される。術者は、神経の走行方向を把握することにより、見えていない神経の存在を予測することができる。
本実施の形態では、神経組織と、神経組織の表面に現れる血管組織とを区別して認識するために、神経組織に該当する画素と、神経組織の表面に現れる血管組織に該当する画素とを区別してアノテーションを行い、このアノテーションにより得られる訓練データを用いて学習を行うことにより、学習モデル310を生成する。神経の表面に現れる表面血管は、神経に固有の模様を有しており、他の臓器に現れる表面血管の模様とは異なる。学習の際に、上述のような訓練データを用いることにより、単に神経の位置情報だけでなく、神経の表面に現れる表面血管の模様の情報も加味して学習が進むので、神経の認識精度が向上する。
なお、支援装置200から生成される画像は、手術支援に用いられるだけでなく、研修医等の教育支援のために用いられてもよく、腹腔鏡手術の評価のために用いられてもよい。例えば、また、手術中に録画装置140に録画された画像と支援装置200が生成した画像とを比較して、腹腔鏡手術における牽引操作や剥離操作が適切であったか否かを判断することにより、腹腔鏡手術を評価することができる。
(実施の形態2)
実施の形態2では、第1方向に走行する神経組織と、第1方向とは異なる第2方向に走行する神経組織とを区別して認識する構成について説明する。
図11は実施の形態2における術野画像の例を示す模式図である。図11は、術野画像の下部領域(ドットを付した領域)に現れている臓器111と、臓器111に沿った方向(図中の黒色矢印の方向)へ走行する神経組織112と、この神経組織112から分岐して臓器111に向かう方向(図中の白色矢印の方向)へ走行する神経組織113とを含んだ術野画像を示している。
以下において、臓器に沿った方向へ走行している神経組織を第1神経組織、臓器に向かう方向に走行している神経組織を第2神経組織と記載する。本実施の形態において、第1神経組織は、腹腔鏡手術において温存すべき神経を表す。例えば、迷走神経や反回神経などが第1神経組織に該当する。これに対し、第2神経組織は、腹腔鏡手術において剥離可能な神経を表しており、臓器を展開する場合や病変部を切除する場合などにおいて必要に応じて剥離される。第1神経組織及び第2神経組織は、単一の神経組織である必要はなく、神経叢や神経繊維束などの組織であってもよい。
一方向(第1方向とする)に走行する第1神経組織と、他方向(第2方向とする)に走行する第2神経組織とを区別して認識し、認識結果を術者に提供できれば、術者にとって有用である。そこで、実施の形態に2に係る支援装置200は、学習モデル320(図12を参照)を用いて、第1方向に走行する第1神経組織を、第2方向に走行する第2神経組織と区別して認識する。
図12は実施の形態2における学習モデル320の構成を説明する説明図である。図12では、簡略化のために、学習モデル320のソフトマックス層323のみを示している。ソフトマックス層323以外の構成は、実施の形態1に示す学習モデル310と同様である。実施の形態2における学習モデル320が備えるソフトマックス層323は、各画素に対応して設定されたラベルについて確率を出力する。実施の形態2では、第1神経組織を識別するラベル、第2神経組織を識別するラベル、それ以外を示すラベルが設定される。支援装置200の制御部201は、第1神経組織を識別するラベルの確率が閾値以上であれば、その画素が第1神経組織であると認識し、第2神経組織を識別するラベルの確率が閾値以上であれば、その画素が第2神経組織であると認識する。また、制御部201は、それ以外を示すラベルの確率が閾値以上であれば、その画素は第1神経組織でも第2神経組織でもないと認識する。
このような認識結果を得るための学習モデル320は、術野画像と、術野画像に含まれる第1神経組織及び第2神経組織のそれぞれの位置(画素)を示す正解データとを含むセットを訓練データに用いて学習することにより生成される。学習モデル320の生成方法については、実施の形態1と同様であるため、その説明を省略する。
図13は実施の形態2における認識結果の表示例を示す模式図である。支援装置200の制御部201は、術野画像を学習済みの学習モデル320に入力することによって、学習モデル320による認識結果を取得する。制御部201は、学習モデル320による認識結果を参照して、第1神経組織と第2神経組織とを判別可能な認識画像を生成する。例えば、制御部201は、第1神経組織と認識された画素に対して白色系や青色系の特定の色を割り当て、第2神経組織と認定された画素に対して別の色を割り当てることによって認識画像を生成することができる。
図13の表示例では、作図の都合上、第1神経組織部分131(臓器に沿って走行する神経組織部分)のみをハッチングを付して示している。実際には、第1神経組織に該当する部分は画素単位で白色系や青色系などの特定の色を付して表示すればよい。
また、図13では、第1神経組織部分131のみを表示しているが、第2神経組織部分132(臓器に向かう方向に走行する神経組織部分)のみを表示してもよく、第1神経組織部分131及び第2神経組織部分132をそれぞれ異なる表示態様にて表示してもよい。
以上のように、実施の形態2では、第1方向に走行する神経組織と第2方向に走行する神経組織とを区別して認識することができるので、例えば、温存すべき神経組織の存在、及び剥離可能な神経組織の存在を術者に知らせることができる。
なお、本実施の形態では、第1方向に走行する神経組織及び第2方向に走行する神経組織の双方を認識する構成としたが、第1方向(又は第2方向)に走行する神経組織のみを認識する構成としてもよい。この場合、第1方向(又は第2方向)に走行する神経組織に該当する画素を正解データ、第2方向(又は第1方向)に走行する神経組織に該当する画素を不正解データとして含む訓練データを用いて、学習モデル320を生成すればよい。このような学習モデル320を用いて神経組織を認識することにより、第1方向(又は第2方向)に走行する神経組織のみを認識することができる。
(実施の形態3)
実施の形態3では、神経組織と疎性結合組織とを区別して認識する構成について説明する。
図14は実施の形態3における術野画像の例を示す模式図である。図14は、術野画像の中央部の領域(ドットを付した領域)に現れている臓器141と、臓器141の表面において左右方向(図中の黒色矢印の方向)に走行する神経組織141と、神経組織141と交差する方向(図中の白色矢印の方向)に走行する疎性結合組織143とを含んだ術野画像を示している。
疎性結合組織は、組織や器官の間を満たす線維性の結合組織であり、組織を構成する線維(膠原線維や弾性線維)の量が比較的少ないものをいう。疎性結合組織は、臓器を展開する場合や病変部を切除する場合などにおいて必要に応じて剥離される。
術野画像に現れる神経組織及び疎性結合組織は、共に白色系の色を有し、線状に延びる組織であるため、外見上区別することが困難であることが多い。このため、神経組織と、疎性結合組織とを区別して認識し、認識結果を術者に提供できれば、術者にとって有用である。そこで、実施の形態に3に係る支援装置200は、学習モデル330(図15を参照)を用いて、神経組織を疎性結合組織と区別して認識する。
図15は実施の形態3における学習モデル330の構成を説明する説明図である。図15では、簡略化のために、学習モデル330のソフトマックス層333のみを示している。ソフトマックス層333以外の構成は、実施の形態1に示す学習モデル310と同様である。実施の形態3における学習モデル330が備えるソフトマックス層333は、各画素に対応して設定されたラベルについて確率を出力する。実施の形態3では、神経組織を識別するラベル、疎性結合組織を識別するラベル、それ以外を示すラベルが設定される。支援装置200の制御部201は、神経組織を識別するラベルの確率が閾値以上であれば、その画素が神経組織であると認識し、疎性結合組織を識別するラベルの確率が閾値以上であれば、その画素が疎性結合組織であると認識する。また、制御部201は、それ以外を示すラベルの確率が閾値以上であれば、その画素は神経組織でも疎性結合組織でもないと認識する。
このような認識結果を得るための学習モデル330は、術野画像と、術野画像に含まれる神経組織及び疎性結合組織のそれぞれの位置(画素)を示す正解データとを含むセットを訓練データに用いて学習することにより生成される。学習モデル330の生成方法については、実施の形態1と同様であるため、その説明を省略する。
図16は実施の形態3における認識結果の表示例を示す模式図である。支援装置200の制御部201は、術野画像を学習済みの学習モデル330に入力することによって、学習モデル330による認識結果を取得する。制御部201は、学習モデル330による認識結果を参照して、神経組織と疎性結合組織とを判別可能な認識画像を生成する。例えば、制御部201は、神経組織と認識された画素に対して白色系や青色系の特定の色を割り当て、疎性結合組織と認定された画素に対して別の色を割り当てることによって認識画像を生成することができる。
図16の表示例では、作図の都合上、神経組織部分161のみをハッチングを付して示している。実際には、神経組織に該当する部分は画素単位で白色系や青色系などの特定の色を付して表示すればよい。
また、図16では、神経組織部分161のみを表示しているが、疎性結合組織部分162のみを表示してもよく、神経組織部分161及び疎性結合組織部分162をそれぞれ異なる表示態様にて表示してもよい。
以上のように、実施の形態3では、神経組織と疎性結合組織とを区別して認識することができるので、例えば、温存すべき神経組織の存在、及び剥離可能な疎性結合組織の存在を術者に知らせることができる。
なお、本実施の形態では、神経組織及び疎性結合組織の双方を認識する構成としたが、神経組織(又は疎性結合組織)のみを認識する構成としてもよい。この場合、神経組織(又は疎性結合組織)に該当する画素を正解データ、疎性結合組織(又は神経組織)に該当する画素を不正解データとして含む訓練データを用いて、学習モデル330を生成すればよい。このような学習モデル330を用いることにより、制御部201は、神経組織(又は疎性結合組織)のみを疎性結合組織(又は神経組織)から区別して認識することができる。
(実施の形態4)
実施の形態4では、神経組織に対する認識結果の確信度に応じて、表示態様を変更する構成について説明する。
実施の形態4において説明したように、学習モデル310のソフトマックス層313は、各画素に対応して設定されたラベルについて確率を出力する。この確率は、認識結果の確信度を表す。支援装置200の制御部201は、認識結果の確信度に応じて、神経組織部分の表示態様を異ならせる。
図17は実施の形態4における表示例を示す模式図である。図17は神経組織を含む領域を拡大して示している。この例では、神経組織の認識結果に関して、確信度が70%~80%の場合、80%~90%の場合、90%~95%の場合、95%~100%の場合の夫々で濃度を異ならせて神経組織部分を表示している。この例では、確信度が高くなる程、濃度が高くなるように表示態様を変更している。
また、図17の例では、確信度に応じて濃度を異ならせる構成としたが、確信度に応じて色や透過度を異ならせてもよい。色を異ならせる場合、例えば、確信度が低くなる程、白色系の色で表示し、確信度が高くなる程、青色系の色で表示してもよい。また、透過度を異ならせる場合、確信度が高くなる程、透過度が低くなるように表示態様を変更すればよい。
また、図17の例では、確信度に応じて4段階に濃度を変更しているが、更に細かく濃度を設定し、確信度に応じたグラデーション表示を行ってもよい。
(実施の形態5)
実施の形態5では、術具などの物体の陰に隠れて視認することができない神経組織部分の推定位置を表示する構成について説明する。
図18は実施の形態5における表示手法を説明する説明図である。上述したように、支援装置200は、学習モデル310を用いて、術野画像に含まれる神経組織部分を認識する。しかしながら、撮像対象の術野に術具やガーゼなどの物体が存在する場合、支援装置200は、学習モデル310を用いたとしても、物体の陰に隠れている神経組織を術野画像から認識することはできない。このため、神経組織の認識画像を術野画像に重畳して表示させた場合、物体の陰に隠れている神経組織部分を判別可能に表示することはできない。
そこで、実施の形態5に係る支援装置200は、物体の陰に隠れていない状態で認識した神経組織の認識画像を記憶部202に保持しておき、当該神経組織部分が物体の陰に隠れた場合、記憶部202に保持した認識画像を読み出して、術野画像に重畳表示することを行う。
図18の例では、時刻T1は神経組織が術具の陰に隠れていない状態の術野画像を示し、時刻T2は神経組織の一部が術具の陰に隠れた状態の術野画像を示している。ただし、時刻T1と時刻T2との間では、腹腔鏡11は移動させておらず、撮像している領域に変化はないものとする。
時刻T1の術野画像からは、術野に現れる神経組織を認識することが可能であり、学習モデル310の認識結果から、神経組織の認識画像が生成される。生成された神経組織の認識画像は記憶部202に記憶される。
一方、時刻T2の術野画像からは、術野に現れる神経組織のうち、術具に隠れていない神経組織については認識可能であるが、術具に隠れている神経組織については認識することがない。そこで、支援装置200は、時刻T1の術野画像から生成された神経組織の認識画像を時刻T2の術野画像に重畳して表示する。図18の例では、破線で示す部分が術具に隠れて視認できない神経組織部分であるが、支援装置200は、時刻T1において認識された認識画像を流用することにより、当該部分も含めて判別可能に表示することが可能となる。
以上のように、実施の形態5では、術具やガーゼなどの物体の陰に隠れて視認することができない神経組織の存在を術者に報知することができるので、手術時の安全性を高めることができる。
本実施の形態では、物体の陰に隠れていない状態で認識した神経組織の認識画像を流用することによって、物体の陰に隠れた神経組織部分を判別可能に表示する構成としたが、支援装置200は、物体の陰に隠れている神経組織部分を内挿又は外挿などの数学的手法を用いて推定することにより、当該神経組織部分を判別可能に表示してもよい。また、支援装置200は、物体の陰に隠れていない神経組織部分と、物体の陰に隠れている神経組織部分とを表示態様(色、濃度、透明度など)を変えて表示してもよい。更に、支援装置200は、GAN(Generative Adversarial Network)やVAE(Variational AutoEncoder)などの画像生成系の学習モデルを用いて、物体の陰に隠れていない神経組織部分と、物体の陰に隠れている神経組織部分との双方を含む認識画像を生成し、生成した認識画像を術野画像に重畳して表示してもよい。
(実施の形態6)
実施の形態6では、神経組織の走行パターンを予測し、予測した神経組織の走行パターンにより推定される神経部分を判別可能に表示する構成について説明する。
図19は実施の形態6に係る支援装置200が実行する処理の手順を説明するフローチャートである。支援装置200の制御部201は、実施の形態1と同様に、術野画像を取得し(ステップS601)、取得した術野画像を学習モデル310に入力して学習モデル310による演算を実行する(ステップS602)。制御部201は、学習モデル310による演算結果に基づき、神経組織の走行パターンを予測する(ステップS603)。実施の形態1では、学習モデル310のソフトマックス層313から出力されるラベルの確率が閾値以上(例えば70%以上)の画素を抽出することによって、神経組織部分の認識画像を生成していたが、実施の形態6では、その閾値を下げることにより神経組織の走行パターンを予測する。具体的には、制御部201は、学習モデル310のソフトマックス層313から出力されるラベルの確率が第1閾値以上(例えば40%以上)、第2閾値未満(例えば70%)未満の画素を抽出することによって、神経組織の走行パターンを予測する。
制御部201は、予測した走行パターンにより推定される神経組織部分を判別可能に表示する(ステップS604)。図20は実施の形態6における表示例を示す模式図である。図20では、認識した神経組織部分201Aをハッチングにより示し、予測した走行パターンにより推定される神経組織部分201Bを太破線により示している。図面作成の都合上、図20の例では、認識した神経組織部分201Aをハッチングにより示し、走行パターンにより推定される神経組織部分201Bを太破線により示しているが、色、濃度、透過度などの表示態様を異ならせて表示すればよい。
以上のように、実施の形態6では、走行パターンにより推定される神経組織部分を併せて表示できるので、腹腔鏡手術における視覚支援を行うことができる。
本実施の形態では、神経組織を認識する際の閾値を下げることにより、神経組織の走行パターンを予測する構成としたが、支援装置200は、GANやVAEなどの画像生成系の学習モデルを用いて、術野画像からは明確に視認することができない神経組織の走行パターンを含む認識画像を生成し、生成した認識画像を術野画像に重畳して表示してもよい。
(実施の形態7)
実施の形態1~6では、対象組織として神経組織を認識する構成について説明したが、対象組織は神経組織に限らず、尿管であってもよい。実施の形態7では、神経組織に代えて尿管を認識する構成について説明する。
図21は実施の形態7における学習モデル340の構成を説明する説明図である。図21では、簡略化のために、学習モデル340のソフトマックス層343のみを示している。ソフトマックス層343以外の構成は、実施の形態1に示す学習モデル310と同様である。実施の形態7における学習モデル340が備えるソフトマックス層343は、各画素に対応して設定されたラベルについて確率を出力する。実施の形態7では、尿管組織を識別するラベル、及びそれ以外を示すラベルが設定される。支援装置200の制御部201は、尿管組織を識別するラベルの確率が閾値以上であれば、その画素が尿管組織であると認識する。また、制御部201は、それ以外を示すラベルの確率が閾値以上であれば、その画素は尿管組織でないと認識する。
このような認識結果を得るための学習モデル340は、術野画像と、術野画像に含まれる尿管組織の位置(画素)を示す正解データとを含むセットを訓練データに用いて学習することにより生成される。すなわち、実施の形態7における学習モデル340は、尿管組織を血管組織と区別して認識するよう学習される。学習モデル340の生成方法については、実施の形態1と同様であるため、その説明を省略する。
図22は実施の形態7における認識結果の表示例を示す模式図である。支援装置200の制御部201は、術野画像を学習済みの学習モデル340に入力することによって、学習モデル340による認識結果を取得する。制御部201は、学習モデル340による認識結果を参照して、尿管組織と血管組織を含む他の組織とを判別可能な認識画像を生成する。例えば、制御部201は、尿管組織と認識された画素に対して白色系や青色系の特定の色を割り当ることによって認識画像を生成することができる。
図22の表示例では、作図の都合上、尿管組織部分221のみをハッチングを付して示している。実際には、尿管組織に該当する部分は画素単位で白色系や青色系などの特定の色を付して表示すればよい。
以上のように、実施の形態7では、学習モデル340を用いて尿管組織を認識し、認識した尿管組織を画素単位で判別可能に表示することができるので、腹腔鏡手術における視覚支援を行うことができる。
尿管の認識手法として、仮に、尿管組織と、尿管組織の表面に現れる血管組織とを区別せずに一体の領域として認識する手法を採用した場合、術野画像内の尿管を含む領域はベタ塗りの画像で覆われることになるため、尿管自体が見えづらくなり、手術を行う術者にとって必要な情報がかえって失われる可能性がある。例えば、尿管は、尿を腎盂から膀胱へ運ぶために蠕動運動を行っているが、尿管を含む領域がベタ塗りの画像で覆われた場合、蠕動運動を認識することが困難になる可能性がある。
これに対して、本実施の形態では、認識した尿管組織を画素単位で判別可能に表示することができるので、認識した尿管組織を見やすく表示することができる。特に、本実施の形態では、尿管組織と、尿管組織の表面に現れる血管組織(表面血管)とを区別して表示するので、尿管の蠕動運動に伴って動く表面血管の存在が強調される。この結果、術者は、尿管の蠕動運動を容易に認識することできる。更に、尿管組織の表面に現れる血管組織を除外して表示することで尿管の走行方向がより強調される。術者は、尿管の走行方向を把握することにより、見えていない尿管の存在を予測することができる。
本実施の形態では、尿管組織と、尿管組織の表面に現れる血管組織とを区別して認識するために、尿管組織に該当する画素と、尿管組織の表面に現れる血管組織に該当する画素とを区別してアノテーションを行い、このアノテーションにより得られる訓練データを用いて学習を行うことにより、学習モデル340を生成する。尿管の表面に現れる表面血管は、尿管に固有の模様を有しており、他の臓器に現れる表面血管の模様とは異なる。学習の際に、上述のような訓練データを用いることにより、単に尿管の位置情報だけでなく、尿管の表面に現れる表面血管の模様の情報も加味して学習が進むので、尿管の認識精度が向上する。
(実施の形態8)
実施の形態8では、臓器表面に現れる表面血管を認識し、認識した表面血管部分の末端の位置を特定することにより、臓器の境界を特定する構成について説明する。
図23は実施の形態8における学習モデル350の構成を説明する説明図である。図23では、簡略化のために、学習モデル350のソフトマックス層353のみを示している。ソフトマックス層353以外の構成は、実施の形態1に示す学習モデル310と同様である。実施の形態8における学習モデル350が備えるソフトマックス層353は、各画素に対応して設定されたラベルについて確率を出力する。実施の形態8では、表面血管を識別するラベル、及びそれ以外を示すラベルが設定される。支援装置200の制御部201は、表面血管を識別するラベルの確率が閾値以上であれば、その画素が表面血管に該当する画素であると認識する。また、制御部201は、それ以外を示すラベルの確率が閾値以上であれば、その画素は表面血管でないと認識する。
このような認識結果を得るための学習モデル350は、術野画像と、術野画像に含まれる表面血管の位置(画素)を示す正解データとを含むセットを訓練データに用いて学習することにより生成される。すなわち、実施の形態8における学習モデル350は、表面血管を他の組織と区別して認識するよう学習される。学習モデル350の生成方法については、実施の形態1と同様であるため、その説明を省略する。
図24は臓器境界の特定手法を説明する説明図である。支援装置200の制御部201は、術野画像を学習済みの学習モデル350に入力することによって、学習モデル350による認識結果を取得する。制御部201は、学習モデル350による認識結果を参照して、臓器表面に現れている表面血管の認識画像を生成する。図24において実線は学習モデル350により認識された表面血管を表す。
制御部201は、生成した認識画像において、表面血管の末端の位置座標を特定する。例えば、制御部201は、表面血管のセグメントを構成する画素のそれぞれについて、同一セグメントに属する画素の隣接数を求め、その隣接数が1となる画素を特定することにより、末端の位置座標を特定することができる。図24は、表面血管の末端の位置座標として、点P1~P4の4つの点の座標を特定した例を示している。制御部201は、特定した点P1~P4(若しくは点P1~P4の近傍)を通る近似曲線を導出することにより、表面血管が現れている臓器の境界を特定する。近似曲線の導出には、最小二乗法などの公知の手法を用いることができる。また、制御部201は、特定した末端の点を全て内包する閉曲線を導出することにより、表面血管が現れている臓器の境界を特定してもよい。
なお、制御部201は、臓器境界の全てを特定する必要はなく、臓器境界の一部を特定する構成であってもよい。
図25は実施の形態8に係る支援装置200が実行する処理の手順を説明するフローチャートである。支援装置200の制御部201は、実施の形態1と同様に、術野画像を取得し(ステップS801)、取得した術野画像を学習モデル350に入力して学習モデル350による演算を実行する(ステップS802)。制御部201は、学習モデル350による演算結果に基づき、臓器表面に現れる表面血管を認識する(ステップS803)。
次いで、制御部201は、表面血管の末端の位置座標を特定する(ステップS804)。このとき、制御部201は、全ての表面血管の末端の位置座標を特定してもよく、長さが閾値以上の表面血管のみを抽出して末端の位置座標を特定してもよい。
次いで、制御部201は、特定した表面血管の末端の位置座標に基づき、臓器の境界を特定する(ステップS805)。制御部201は、上述したように、特定した表面血管の末端の位置座標(若しくは位置座標の近傍)を通る近似曲線を導出することにより、表面血管が現れている臓器の境界を特定することができる。
以上のように、実施の形態8では、臓器表面に現れる表面血管を手掛かりとして、臓器の境界を特定することができる。支援装置200は、特定した境界の情報を術者に提示することにより、手術支援を行うことができる。
実施の形態8では、臓器の境界を特定する構成としたが、境界を特定する対象組織は臓器に限らず、臓器を覆う膜や層などであってもよい。
今回開示された実施形態は、全ての点において例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
10 トロッカ
11 腹腔鏡
12 エネルギ処置具
13 鉗子
110 カメラコントロールユニット(CCU)
120 光源装置
130 表示装置
140 録画装置
200 支援装置
201 制御部
202 記憶部
203 操作部
204 入力部
205 出力部
206 通信部
310,320,330,340,350 学習モデル
PG1 認識処理プログラム
PG2 表示処理プログラム
PG3 学習処理プログラム

Claims (15)

  1. コンピュータに、
    鏡視下手術の術野を撮像して得られる術野画像を取得し、
    術野画像を入力した場合、対象組織に固有の模様を表す表面血管の組織部分を除いた正味の対象組織部分の情報を出力するように学習された学習モデルを用いて、取得した術野画像から、対象組織に固有の模様を表す表面血管を除いて、対象組織部分を認識する
    処理を実行させるためのコンピュータプログラム。
  2. 前記コンピュータに、
    前記対象組織部分と前記表面血管の組織部分とを前記術野画像上で判別可能に表示する
    処理を実行させるための請求項1に記載のコンピュータプログラム。
  3. 前記コンピュータに、
    前記対象組織部分の表示及び非表示を周期的に切り替える
    処理を実行させるための請求項1又は請求項2に記載のコンピュータプログラム。
  4. 前記コンピュータに、
    前記表面血管の組織部分の表示及び非表示を周期的に切り替える
    処理を実行させるための請求項1から請求項3の何れか1つに記載のコンピュータプログラム。
  5. 前記対象組織は、神経組織であり、
    前記学習モデルを用いて、前記術野画像から、神経組織の表面に現れる表面血管を除いて、神経組織部分を認識する処理を前記コンピュータに実行させるための請求項1から請求項4の何れか1つに記載のコンピュータプログラム。
  6. 前記対象組織は、第2方向とは異なる第1方向に走行する神経組織であり、
    前記学習モデルを用いて、前記術野画像から、前記第1方向に走行する神経組織の表面に現れる表面血管を除いて、前記第1方向の神経組織部分を認識する処理を前記コンピュータに実行させるための請求項1から請求項4の何れか1つに記載のコンピュータプログラム。
  7. 前記対象組織は、疎性結合組織と交差する方向に走行する神経組織であり、
    前記学習モデルを用いて、前記術野画像から、疎性結合組織と交差する方向に走行する神経組織の表面に現れる表面血管を除いて、神経組織部分を認識する処理を前記コンピュータに実行させるための請求項1から請求項4の何れか1つに記載のコンピュータプログラム。
  8. 前記対象組織は、尿管組織であり、
    前記学習モデルを用いて、前記術野画像から、尿管組織の表面に現れる表面血管を除いて、尿管組織部分を認識する処理を前記コンピュータに実行させるための請求項1から請求項4の何れか1つに記載のコンピュータプログラム。
  9. 前記対象組織は、緊張状態にある組織であり、
    前記学習モデルを用いて、前記術野画像から、緊張状態にある組織の表面に現れる表面血管を除いて、前記組織部分を認識する処理を前記コンピュータに実行させるための請求項1から請求項8の何れか1つに記載のコンピュータプログラム。
  10. 前記コンピュータに、
    前記学習モデルによる認識結果の確信度を算出し、
    算出した確信度に応じた表示態様にて、前記対象組織部分を表示する
    処理を実行させるための請求項1から請求項9の何れか1つに記載のコンピュータプログラム。
  11. 前記コンピュータに、
    前記学習モデルによる認識結果を参照し、他の物体の陰に隠れた対象組織部分の推定位置を表示する
    処理を実行させるための請求項1から請求項10の何れか1つに記載のコンピュータプログラム。
  12. 前記コンピュータに、
    前記学習モデルを用いて認識した前記対象組織部分の走行パターンを推定し、
    推定した走行パターンに基づき、前記術野画像に現れない対象組織部分の推定位置を表示する
    処理を実行させるための請求項1から請求項11の何れか1つに記載のコンピュータプログラム。
  13. コンピュータが、
    鏡視下手術の術野を撮像して得られる術野画像と、該術野画像に含まれる対象組織のうち、該対象組織に固有の模様を表す表面血管の組織部分を除いた正味の対象組織部分の情報とを含む訓練データを取得し、
    取得した訓練データのセットに基づき、術野画像を入力した場合、対象組織に固有の模様を表す表面血管の組織部分を除いた正味の対象組織部分の情報を出力する学習モデルを生成する
    学習モデルの生成方法。
  14. 鏡視下手術の術野を撮像して得られる術野画像を取得する取得部と、
    術野画像を入力した場合、対象組織に固有の模様を表す表面血管の組織部分を除いた正味の対象組織部分の情報を出力するように学習された学習モデルを用いて、取得した術野画像から、対象組織に固有の模様を表す表面血管を除いて、対象組織部分を認識する認識部と、
    該認識部の認識結果に基づき、前記鏡視下手術に関する支援情報を出力する出力部と
    を備える支援装置。
  15. 前記出力部は、認識した対象組織部分を示す認識画像を前記術野画像に重畳して表示する
    請求項14に記載の支援装置。
JP2024002079A 2021-01-19 2024-01-10 コンピュータプログラム、学習モデルの生成方法、及び支援装置 Pending JP2024041891A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021006535 2021-01-19
JP2021006535 2021-01-19
PCT/JP2022/001623 WO2022158451A1 (ja) 2021-01-19 2022-01-18 コンピュータプログラム、学習モデルの生成方法、及び支援装置
JP2022576690A JP7457415B2 (ja) 2021-01-19 2022-01-18 コンピュータプログラム、学習モデルの生成方法、及び支援装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022576690A Division JP7457415B2 (ja) 2021-01-19 2022-01-18 コンピュータプログラム、学習モデルの生成方法、及び支援装置

Publications (1)

Publication Number Publication Date
JP2024041891A true JP2024041891A (ja) 2024-03-27

Family

ID=82549399

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022576690A Active JP7457415B2 (ja) 2021-01-19 2022-01-18 コンピュータプログラム、学習モデルの生成方法、及び支援装置
JP2024002079A Pending JP2024041891A (ja) 2021-01-19 2024-01-10 コンピュータプログラム、学習モデルの生成方法、及び支援装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022576690A Active JP7457415B2 (ja) 2021-01-19 2022-01-18 コンピュータプログラム、学習モデルの生成方法、及び支援装置

Country Status (4)

Country Link
US (1) US20240087113A1 (ja)
JP (2) JP7457415B2 (ja)
CN (1) CN116723787A (ja)
WO (1) WO2022158451A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115187596B (zh) * 2022-09-09 2023-02-10 中国医学科学院北京协和医院 用于腹腔镜结直肠癌手术的神经智能辅助识别系统
WO2024053698A1 (ja) * 2022-09-09 2024-03-14 慶應義塾 手術支援プログラム、手術支援装置、および手術支援方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5322794B2 (ja) * 2009-06-16 2013-10-23 株式会社東芝 内視鏡検査支援システム
US10806334B2 (en) * 2017-02-28 2020-10-20 Verily Life Sciences Llc System and method for multiclass classification of images using a programmable light source
US11723600B2 (en) * 2017-09-05 2023-08-15 Briteseed, Llc System and method used to determine tissue and/or artifact characteristics
WO2019146582A1 (ja) * 2018-01-25 2019-08-01 国立研究開発法人産業技術総合研究所 撮像装置、撮像システム、及び撮像方法
US11918177B2 (en) * 2018-10-03 2024-03-05 Verily Life Sciences Llc Dynamic illumination to identify tissue type
JP7231709B2 (ja) * 2019-03-28 2023-03-01 オリンパス株式会社 情報処理システム、内視鏡システム、情報処理方法及び学習済みモデルの製造方法

Also Published As

Publication number Publication date
JP7457415B2 (ja) 2024-03-28
US20240087113A1 (en) 2024-03-14
CN116723787A (zh) 2023-09-08
JPWO2022158451A1 (ja) 2022-07-28
WO2022158451A1 (ja) 2022-07-28

Similar Documents

Publication Publication Date Title
EP2149331B1 (en) Endoscope system using an image display apparatus
JP2024041891A (ja) コンピュータプログラム、学習モデルの生成方法、及び支援装置
JP5486432B2 (ja) 画像処理装置、その作動方法およびプログラム
JP2008301968A (ja) 内視鏡画像処理装置
JP7289373B2 (ja) 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム
JP7194889B2 (ja) コンピュータプログラム、学習モデルの生成方法、手術支援装置、及び情報処理方法
JP7153974B2 (ja) コンピュータプログラム、学習モデルの生成方法、及び画像処理装置
KR101595962B1 (ko) 대장내시경 수술 시뮬레이션시스템
WO2019130868A1 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
JP7146318B1 (ja) コンピュータプログラム、学習モデルの生成方法、及び手術支援装置
JP7387859B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
JP4615842B2 (ja) 内視鏡システムおよび内視鏡画像処理装置
JP7311936B1 (ja) コンピュータプログラム、学習モデルの生成方法、及び情報処理装置
WO2021044910A1 (ja) 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
JP7368922B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
JP7493285B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
JP7461689B2 (ja) 推論装置、情報処理方法、及びコンピュータプログラム
WO2024024022A1 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
CN115023171A (zh) 学习用医疗图像数据生成装置、学习用医疗图像数据生成方法以及程序
JP4436654B2 (ja) 手術支援システム