JP7148193B1 - 手術支援システム、手術支援方法、及び手術支援プログラム - Google Patents

手術支援システム、手術支援方法、及び手術支援プログラム Download PDF

Info

Publication number
JP7148193B1
JP7148193B1 JP2022082189A JP2022082189A JP7148193B1 JP 7148193 B1 JP7148193 B1 JP 7148193B1 JP 2022082189 A JP2022082189 A JP 2022082189A JP 2022082189 A JP2022082189 A JP 2022082189A JP 7148193 B1 JP7148193 B1 JP 7148193B1
Authority
JP
Japan
Prior art keywords
organ
unit
image
surgery
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022082189A
Other languages
English (en)
Other versions
JP2023079148A (ja
Inventor
博貴 松崎
将康 棚瀬
修由 竹下
Original Assignee
株式会社Jmees
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021192441A external-priority patent/JP7081862B1/ja
Application filed by 株式会社Jmees filed Critical 株式会社Jmees
Priority to JP2022082189A priority Critical patent/JP7148193B1/ja
Application granted granted Critical
Publication of JP7148193B1 publication Critical patent/JP7148193B1/ja
Publication of JP2023079148A publication Critical patent/JP2023079148A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Endoscopes (AREA)

Abstract

【課題】手術を受ける被検体に対する負担が増大することなく、術者が術中に認識するべき所定の器官を内視鏡により撮像された画像に重畳表示して術者への手術支援を行うことができる手術支援システム等を提供する。【解決手段】本開示に係る手術支援システムは、内視鏡により撮像された画像を取得する画像取得部と、手術時に撮像された画像と、当該画像内における所定の器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、画像取得部によって取得された画像を入力して、画像取得部によって取得された画像内における所定の器官の位置及び範囲を推定する器官領域推定部と、器官領域推定部によって推定された所定の器官の位置及び範囲を示す情報を、画像取得部が取得した画像に重畳して表示する推定領域表示部と、を備える。【選択図】図2

Description

本発明は、手術支援システム、手術支援方法、及び手術支援プログラムに関し、特に内視鏡を用いた手術中の術者の器官の認識を支援する手術支援システム、手術支援方法、及び手術支援プログラムに関するものである。
近年、内視鏡を用いる手術が多くの施設で行われるようになった。内視鏡を用いる手術には、経口、経鼻、肛門から内視鏡を消化器などに入れて行う内視鏡手術、腹腔に内視鏡を入れて行う腹腔鏡手術、胸腔に内視鏡を入れて行う胸腔鏡手術、及び関節に内視鏡を入れて行う関節鏡手術などがある。
例えば、腹腔鏡手術は、5から12ミリメートル程度の切開を腹部に数カ所設け、腹腔鏡(内視鏡の一種)、鉗子、及び電気メスなどを切開から腹腔に挿入し、腹腔鏡で捉えた映像をモニタに映し出して手術を行うものである。
腹腔鏡手術は、切開で生じる傷が小さく目立たないため美容的に優れ、術後の痛みが開腹手術より少なく早期回復が可能であり、感染症のリスクが低く、出血量も少ないなどのメリットが挙げられる。
一方、腹腔鏡手術を含む内視鏡を用いた手術は、術者の視界が制限されるとともに術者が臓器などの器官に直接触れることができない等の理由により技術を習得するのに時間及び経験を要するため、術者、施設間での技術の差が大きいなどのデメリットが挙げられる。
そこで、内視鏡を用いた手術の上記のデメリットを軽減することを目的として、手術の対象となる治療部位の全体を広範囲に観察することができるとする内視鏡システムが提案された(特許文献1参照)。特許文献1に開示の技術は、内視鏡とともに、体腔内に留置される小型カメラを用いることで術中の視野を広範囲に確保できるとしている。
しかし、特許文献1に開示の技術は、手術前の被検者の体腔内に当該小型カメラを適切な位置に設置し、術中に当該小型カメラを適切な位置に留置し続ける必要があった。このため、当該小型カメラの設置にある程度の時間を要し被検者に対する負担が増大する虞があった。
また、手術後に被検者の体腔内から小型カメラを取り除く必要があり、この点に関しても被検者に対する負担が増大する虞があった。
特開2008-307225号
そこで、本開示は、手術を受ける被検体に対する負担が増大することなく、術者が術中に認識するべき所定の器官を内視鏡により撮像された画像に重畳表示して術者への手術支援を行うことができる手術支援システム、手術支援方法、及び手術支援プログラムを提供することを目的とする。
すなわち、第1の態様に係る手術支援システムは、内視鏡により撮像された画像を取得する画像取得部と、手術時に撮像された画像と、当該画像内における所定の器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、画像取得部によって取得された画像を入力して、画像取得部によって取得された画像内における所定の器官の位置及び範囲を推定する器官領域推定部と、器官領域推定部によって推定された所定の器官の位置及び範囲を示す情報を、画像取得部が取得した画像に重畳して表示する推定領域表示部と、を備える。
第2の態様は、第1の態様に係る手術支援システムにおいて、器官領域推定モデルは、手術の術式を示す識別情報と、手術時に撮像された画像と、当該画像内における当該術式に関連する所定の器官の位置及び範囲との関係を予め学習したモデルであり、手術の術式の選択を受け付ける術式選択受付部を備え、器官領域推定部は、器官領域推定モデルに、画像取得部が取得した画像と、術式選択受付部が受け付けた術式を示す識別情報と、を入力して、画像取得部が取得した画像内における所定の器官の位置及び範囲を推定することとしてもよい。
第3の態様は、第2の態様に係る手術支援システムにおいて、手術の術式の開始から終了までの過程を内容ごとに分類し順次実施される一連の工程の各工程と、手術時に撮像された画像との関係を予め学習した工程分類モデルに、画像取得部によって取得された画像と、術式選択受付部が受け付けた術式を示す識別情報とを入力して、画像取得部が取得した画像における術式の工程を推定する工程推定部を備え、器官領域推定モデルは、手術の術式を示す識別情報と、術式の工程を示す識別情報と、手術時に撮像された画像と、当該画像内における術式の工程に関連する所定の器官の位置及び範囲と、の関係を学習したモデルであり、器官領域推定部は、器官領域推定モデルに、画像取得部が取得した画像と、術式選択受付部が受け付けた術式を示す識別情報と、工程推定部により推定された工程を示す識別情報とを入力して、画像取得部が取得した画像内における所定の器官の位置及び範囲を推定することとしてもよい。
第4の態様は、第3の態様に係る手術支援システムにおいて、手術の術式の工程に係る器官と、当該手術による切開箇所における切開前の画像と、当該画像に切開の際の術具の先端部の軌跡をアノテーションとして付与した画像との関係を予め学習した切開ライン推定モデルに、画像取得部が取得した画像と、術式選択受付部が受け付けた術式を示す識別情報と、工程推定部により推定された工程を示す識別情報とを入力して、画像取得部が取得した画像内における、切開の際に術具の先端部が通るべき切開ラインの位置及び範囲を推定する切開ライン推定部を備え、推定領域表示部は、切開ライン推定部によって推定された切開ラインを示す情報を、画像取得部が取得した画像に重畳して表示することとしてもよい。
第5の態様は、第4の態様に係る手術支援システムにおいて、術具の先端部の形状を予め学習した術具検知モデルを用い、画像取得部により取得された画像の中の術具の先端部の位置を検知する術具先端検知部と、術具先端検知部により検知された先端部の位置が、切開ライン推定部により推定された切開ラインに達したか否かを判定する切開開始判定部と、切開開始判定部が達したと判定した場合に術者に切開開始の可能性を報知する切開開始報知部と、を備えることとしてもよい。
第6の態様は、第1乃至第3の態様の何れか1の態様に係る手術支援システムにおいて、術具の先端部の形状を予め学習した術具検知モデルを用い、画像取得部により取得された画像の中の術具の先端部の位置を検知する術具先端検知部と、術具先端検知部により検知された先端部の位置が、器官領域推定部により推定された所定の器官の位置及び範囲に達したか否かを判定する器官損傷判定部と、器官損傷判定部が達したと判定した場合に術者に器官損傷の可能性を報知する器官損傷報知部と、を備えることとしてもよい。
第7の態様は、第1乃至第3の態様の何れか1の態様に係る手術支援システムにおいて、術具の先端部の形状を予め学習した術具検知モデルを用い、画像取得部により取得された画像の中の術具の先端部の位置を検知する術具先端検知部と、画像取得部によって取得された画像の中の血管の位置及び範囲を検出する血管検出部と、術具先端検知部により検知された先端部の位置が、血管検出部により検出された血管に達したか否かを判定する血管損傷判定部と、血管損傷判定部が達したと判定した場合に術者に血管の損傷の可能性を報知する血管損傷報知部と、を備えることとしてもよい。
第8の態様は、第1乃至第7の態様の何れか1の態様に係る手術支援システムにおいて、器官領域推定部が、画像取得部によって取得された画像において、複数の所定の器官の位置及び範囲を推定した場合、推定領域表示部は、器官領域推定部によって推定された複数の所定の器官を示す情報についてそれぞれ表示態様を変えて画像取得部が取得した画像に重畳して表示することとしてもよい。
第9の態様は、第1乃至第8の態様の何れか1の態様に係る手術支援システムにおいて、器官領域推定モデルは、学習の対象となる器官が自動性を有する場合は当該自動性に係る運動の態様を予め学習し、器官領域推定部により推定された所定の器官が自動性を有する場合、推定領域表示部は、器官領域推定部によって推定された所定の器官を示す情報を所定の態様により強調して画像取得部が取得した画像に重畳して表示することとしてもよい。
第10の態様は、第1乃至第9の態様の何れか1の態様に係る手術支援システムにおいて、器官領域推定部により推定された所定の器官の位置及び範囲と、画像取得部によって取得された画像とを比較することで所定の器官の露出度を判定する露出度判定部と、推定領域表示部は、露出度判定部により判定された露出度に応じて、器官領域推定部によって推定された所定の器官を示す情報の表示態様を変えることとしてもよい。
第11の態様は、第1乃至第10の態様の何れか1の態様に係る手術支援システムにおいて、画像取得部は、連続する複数枚の画像を取得し、器官領域推定部は、画像取得部により取得された連続する複数枚の画像を器官領域推定モデルに入力することによって所定の器官の位置及び範囲の軌跡を推定することとしてもよい。
第12の態様は、第1乃至第11の態様の何れか1の態様に係る手術支援システムにおいて、画像取得部は、内視鏡により撮像された画像とともに、コンピュータ断層撮影により手術前に撮像された画像及び磁気共鳴画像撮影により手術前に撮像された画像のうち少なくとも何れか一方を取得し、器官領域推定部は、画像取得部によって取得された画像を器官領域推定モデルに入力することによって所定の器官の位置及び範囲を推定し、推定領域表示部は、器官領域推定部によって推定された所定の器官の位置及び範囲を示す情報を、画像取得部が取得したコンピュータ断層撮影により手術前に撮像された画像及び磁気共鳴画像撮影により手術前に撮像された画像のうち少なくとも何れか一方に重畳表示することとしてもよい。
第13の態様は、第1乃至第12の態様の何れか1の態様に係る手術支援システムにおいて、所定の器官とは、手術中に損傷する確率の高い器官であることとしてもよい。
第14の態様は、第8の態様に係る手術支援システムにおいて、内視鏡が腹腔鏡であって、器官領域推定部が、画像取得部によって取得された画像を器官領域推定モデルに入力することにより隣り合う2つの器官の位置及び範囲を推定した場合、推定領域表示部は、隣り合う2つの器官のうちの一方の器官の位置及び範囲を示す情報のうち、隣り合う2つの器官のうちの他方の器官の位置及び範囲に近い部分を画像取得部が取得した画像に重畳して表示することとしてもよい。
第15の態様に係る手術支援方法は、手術支援システムに用いられるコンピュータに、内視鏡により撮像された画像を取得する画像取得ステップと、手術時に撮像された画像と、当該画像内における所定の器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、画像取得ステップにおいて取得された画像を入力して、画像取得ステップにおいて取得された画像内における所定の器官の位置及び範囲を推定する器官領域推定ステップと、器官領域推定ステップにおいて推定された所定の器官の位置及び範囲を示す情報を、画像取得ステップにおいて取得した画像に重畳して表示する推定領域表示ステップと、を実行させる。
第16の態様に係る手術支援プログラムは、手術支援システムに用いられるコンピュータに、内視鏡により撮像された画像を取得する画像取得機能と、手術時に撮像された画像と、当該画像内における所定の器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、画像取得機能において取得された画像を入力して、画像取得機能において取得された画像内における所定の器官の位置及び範囲を推定する器官領域推定機能と、器官領域推定機能において推定された所定の器官の位置及び範囲を示す情報を、画像取得機能において取得した画像に重畳して表示する推定領域表示機能と、を発揮させる。
本開示に係る手術支援システム等は、内視鏡により撮像された画像を取得する画像取得部と、手術時に撮像された画像と、当該画像内における所定の器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、画像取得部によって取得された画像を入力して、画像取得部によって取得された画像内における所定の器官の位置及び範囲を推定する器官領域推定部と、器官領域推定部によって推定された所定の器官の位置及び範囲を示す情報を、画像取得部が取得した画像に重畳して表示する推定領域表示部と、を備えるので、手術を受ける被検体に対する負担が増大することなく、所定の器官を内視鏡により撮像された画像に重畳表示して術者への手術支援を行うことができる。
本実施形態の手術支援システムに係る機械的構成の一例を示すブロック図である。 本実施形態の手術支援システムに係る機能的構成の一例を示すブロック図である。 本実施形態の手術支援システムに係る術式の工程の一例を説明するための表である。 本実施形態の手術支援システムに係る術具の先端部の位置を検知し内視鏡により撮像された画像に重畳表示した一例を示す図である。 本実施形態の手術支援システムに係る実際の手術により切開をした跡の一例を示す図である。 本実施形態の手術支援システムに係る実際の手術による切開箇所の切開前の画像にアノテーションを付与した画像の一例を示す図である。 本実施形態の手術支援システムに係る内視鏡により撮像された画像に切開ラインを強調して内視鏡により撮像された画像に重畳表示した一例を示す図である。 本実施形態の手術支援システムに係る内視鏡により撮像された画像の一例を示す図である。 本実施形態の手術支援システムに係る手術中に損傷する可能性の高い器官の位置及び範囲を強調して内視鏡により撮像された画像に重畳表示した一例を示す図である。 本実施形態の手術支援システムに係る、子宮頸部のうち膀胱に近い側の子宮頸部の位置及び範囲を強調して内視鏡により撮像された画像に重畳表示した一例を示す図である。 本実施形態の手術支援プログラムに係る器官露出判定モードのフローチャートである。 本実施形態の手術支援プログラムに係る器官損傷判定モードのフローチャートである。 本実施形態の手術支援プログラムに係る切開開始判定モードのフローチャートである。 本実施形態の手術支援プログラムに係る血管損傷判定モードのフローチャートである。 本実施形態の手術支援システムに係る学習モデルの生成過程における機能ブロック図である。 本実施形態の手術支援システムに係る学習モデルの生成過程のフローチャートである。
図1乃至図10を参照して本実施形態の手術支援システム10について説明する。
手術支援システム10は、パーソナルコンピュータ、ノートPC、タブレット型コンピュータなどに代表される電子計算機であり、後述する内視鏡システム14などの外部装置に接続され、当該外部装置に対してデータの入出力を行う。手術支援システム10は、内視鏡システム14が撮像した動画若しくは静止画の画像に対して即時に画像解析を行い、当該画像解析の結果を、内視鏡システム14の内視鏡が撮像した当該画像とともにモニタ12に出力し得るものである。本実施形態では、手術支援システム10が1つの装置として単体で存在する場合を示しているが、これに限らず手術支援システム10がモジュール化され他の電子計算機の一部として組み込まれても良い。
内視鏡システム14は、内視鏡、鉗子、外科手術用エネルギーデバイス、トロッカー、ビデオプロセッサ、内視鏡用ディスプレイなどから構成される。
内視鏡は、体内に挿入し、内部の様子を見るものでありスコープともよばれ、用いられる部位によって腹腔鏡、胸腔鏡、神経内視鏡、耳鼻咽喉用内視鏡、気管支内視鏡、上部消化器官内視鏡、胆道内視鏡、十二指腸用内視鏡、大腸内視鏡、小腸内視鏡、膀胱尿道胸、関節鏡などとも呼ばれる。本実施形態では、手術支援システム10を腹腔鏡手術に用いられる内視鏡システム14に接続して用いる例について説明するが、手術支援システム10は胸腔鏡など他の部位に用いる内視鏡システム14に接続して用いることもできる。
鉗子は、術具の一種であり、臓器など器官を掴むための把持鉗子、組織を剥がしとるための剥離鉗子、病変部の一部などを切開・切除するための鋏鉗子などがある。
外科手術用エネルギーデバイスは、エネルギーの力で組織を切開・剥離し、止血するための術具である。エネルギーには、主に止血に優れる高周波電流と、組織の切開・剥離に優れる超音波振動とがある。
トロッカーとは、針と管とを備え、胸腔又は腹腔からの排液又は排気を行うために使用される。
ビデオプロセッサとは、内視鏡からの電気信号に対して、ノイズ抑制処理、映像信号への変換処理、ホワイトバランス処理などをして内視鏡用ディスプレイ及び手術支援システム10に内視鏡からの映像信号を出力する。
(手術支援システム10の機械的構成)
図1を参照して手術支援システム10の機械的構成の一例について説明する。図1は本実施形態の手術支援システム10に係る機械的構成の一例を示すブロック図である。
手術支援システム10は、通信インターフェース10a、Read Only Memory(ROM)10b、Random Access Memory(RAM)10c、記憶部10d、Central Processing Unit(CPU)10e、及び入出力インターフェース10fなどを備えている。また、手術支援システム10は、その外部装置として、モニタ12、スマートグラス13、内視鏡システム14、入力装置15及び出力装置25を備えている。
記憶部10dは、記憶装置として利用でき、手術支援システム10が動作する上で必要となる後述の手術支援プログラム、各種アプリケーション及び当該アプリケーションによって利用される各種データなどを記憶している。さらに、記憶部10dは、各種用途に合わせて機械学習によって生成された後述の各種学習済みモデルが予め記憶している。
入出力インターフェース10fは、外部装置である、モニタ12、スマートグラス13、内視鏡システム14、入力装置15及び出力装置25に対してデータなどの送受信を行う。入力装置15は、フットスイッチ16、マイク17、キーボード18、マウス19、及びスキャナ20などのことであり、出力装置25はスピーカ26、及びプリンタ27などのことであり、これらはいわゆる手術支援システム10の周辺機器である。
通信インターフェース10aは、ネットワーク11に対してデータ等を送受信可能とするものであり、遠隔から指示・指導を行う指示者・指導者などの情報処理端末に接続され得るものである。
手術支援システム10は、動作する上で必要となる手術支援プログラムをROM10b若しくは記憶部10dに保存し、RAM10cなどで構成されるメインメモリに手術支援プログラムを取り込む。CPU10eは、手術支援プログラムを取り込んだメインメモリにアクセスして、手術支援プログラムを実行し、後述する各種機能部を備える。
スマートグラス13は、術者などが頭部に装着するものであり、術者に対して視覚情報、聴覚情報を出力するモニタ、マイクを備えるとともに、術者の動作・姿勢を検知するジャイロセンサ、術者の音声を集音するマイクを備える。術者は、頭部を振ることで当該ジャイロセンサが術者の動作を検知し、手術支援システム10に対して指令信号を与えることができる。また、術者は、マイクに対して所定の音声を発することで手術支援システム10に対して指令信号を与えることができる。なお、スマートグラス13は、ヘッドマウントディスプレイ(Head Mounted Display)を代用として用いることができる。
フットスイッチ16は、術者などが足によって操作するスイッチであり、手術支援システム10に対して指令信号を与えることができる。
(手術支援システム10の機能的構成)
図2を参照して、手術支援システム10の機能的構成の一例について説明する。図2は本実施形態に係る手術支援システム10の機能的構成の一例を示すブロック図である。
手術支援システム10は、動作する上で必要となる手術支援プログラムをROM10b若しくは記憶部10dに保存し、RAM10cなどで構成されるメインメモリに手術支援プログラムを取り込む。CPU10eは、手術支援プログラムを取り込んだメインメモリにアクセスして手術支援プログラムを実行する。
手術支援システム10は、手術支援プログラムを実行することで、CPU10eに術式選択受付部30、画像取得部31、工程推定部32、器官領域推定部33、露出度判定部34、術具先端検知部35、器官損傷判定部36、器官損傷報知部37、切開ライン推定部38、切開開始判定部39、切開開始報知部40、血管検出部41、血管損傷判定部42、血管損傷報知部43、及び推定領域表示部44などを機能部として備える。
(術式選択受付部)
術式選択受付部30は、手術の術式の選択を受け付ける。
手術支援システム10の使用者である術者などは、手術支援システム10に予め登録してある手術の術式の中から、実施する手術の術式を選択する。一例として、術者は、モニタ12又はスマートグラス13に表示される術式のメニューの中からマウス等のポインティングデバイス又は音声入力機能等を用いて、術式を選択することとしてよい。術式選択受付部30は、手術の開始前に当該手術に係る術式について術者などの選択により受け付ける。なお、術式は手術の途中での変更が可能であり、術式選択受付部30は手術の途中で他の術式の選択を受け付けることができ、手術支援システム10は手術の途中で受け付けた他の術式の識別情報を用いてその後の処理を行う。
(画像取得部)
画像取得部31は、内視鏡により撮像された画像を取得する。
画像取得部31は、内視鏡システム14のビデオプロセッサからの出力信号を取得することにより、内視鏡により撮像された動画若しくは静止画の画像の映像信号を取得する。また、画像取得部31は、図示しないコンピュータ断層撮影(CT:Computed Tomography)装置及び磁気共鳴画像撮影(MRI:Magnetic Resonance Imaging)装置によって撮影された画像を取得することができる。なお、本実施形態に係る内視鏡システム14は、コンピュータ断層撮影(CT)装置及び磁気共鳴画像撮影(MRI)装置が撮像した画像を取得することができるが、コンピュータ断層撮影(CT)装置及び磁気共鳴画像撮影(MRI)装置は本件発明に必要不可欠の構成ではない。
(工程推定部)
工程推定部32は、手術の術式の開始から終了までの過程を内容ごとに分類し順次実施される一連の工程の各工程と、手術時に撮像された画像との関係を予め学習した工程分類モデルに、画像取得部31によって取得された画像と、術式選択受付部30が受け付けた術式を示す識別情報とを入力して、画像取得部31が取得した画像における術式の工程を推定する。
工程推定部32は、画像取得部31によって取得された画像を工程分類モデルに入力することで、当該画像のシーン認識を行い当該画像に係る工程を推定するものである。
図3を参照して術式の構成について説明する。図3は本実施形態の手術支援システム10に係る術式の工程の一例を説明するための表である。術式の一例として、S状結腸切除術を掲げて説明する。S状結腸切除術は開始から終了までの過程を9つの工程に分類される。9つ工程は、工程1「直腸後腔処理」、工程2「血管処理前の内側授動」、工程3「血管処理」、工程4「血管処理後の内側授動」、工程5「外側授動」、工程6「直腸周囲剥離」、工程7「直腸腸間膜処理」、工程8「切離・吻合」、工程9「下腸間膜静脈(左結腸動脈)処理」を備える。術式を工程に分類することで、手術の手順管理、精度管理、所要時間管理、患者の体調管理などが工程ごとに行うことが可能になり手術全体の管理を効率的に行うことができるとともに、手術に関する手技の習得、トレーニングを行う際に有用である。
工程分類モデルは、手術時の工程ごとに撮像された画像と当該画像における術式の工程の識別情報との対応関係を予め学習したモデルであり、機械学習により生成され手術支援システム10の記憶部10dに予め記憶されている。
(器官領域推定部)
器官領域推定部33は、手術時に撮像された画像と、当該画像内における所定の器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、画像取得部31によって取得された画像を入力して、画像取得部31によって取得された画像内における所定の器官の位置及び範囲を推定する。
器官とは、臓器、筋肉、靱帯、腱、血管、神経、尿管、骨などのことをいい、人体を構成する単位であり、一定の機能を司る組織の集合体である。
なお、本実施形態の器官領域推定モデルは、手術時に撮像された画像内の所定の器官にアノテーションを付与した教師データを用いて、当該画像内における所定の器官の位置及び範囲との関係を予め学習するが、これに限定されるものでは無い。器官領域推定部33は、器官に拘わらず手術中に損傷する可能性の高い部位にアノテーションを付与した教師データを用いて、当該画像内における所定の部位の位置及び範囲との関係を予め学習したモデルに、画像取得部31によって取得された画像を入力して、画像取得部31によって取得された画像内における所定の部位の位置及び範囲を推定することとしてもよい。所定の部位とは、例えば、複数の器官を跨ぐ広範囲の部位であって手術中に損傷しやすい部位、或いは、器官の一部分であって手術中に損傷しやすい部位などである。
器官領域推定部33は、内視鏡システム14の内視鏡によって撮像された画像を、器官領域推定モデルに入力して、当該画像内における所定の器官の位置及び範囲をリアルタイム(即時)に推定する。器官領域推定部33の推定結果は、後述の推定領域表示部44により、内視鏡によって撮影された画像にリアルタイム(即時)に重畳されてモニタ12に表示される。術者は、モニタ12に表示された当該推定結果を手術中に確認することで、所定の器官の位置及び範囲に注意しながら手術を行うことができる。
器官領域推定部33の推定の対象となる器官は、手術中に損傷する確率の高い器官であることとしてもよい。器官領域推定モデルは、手術時に撮像された画像と、当該画像内における手術中に損傷する確率の高い器官の位置及び範囲との関係を予め学習したモデルである。器官領域推定部33は、当該器官領域推定モデルに、画像取得部31によって取得された画像を入力して、画像取得部31によって取得された画像内における手術中に損傷する確率の高い器官の位置及び範囲を推定する。手術支援システム10は、手術中に損傷する確率の高い器官の位置及び範囲を推定し、画像取得部31によって取得された画像内にリアルタイム(即時)に当該器官の位置及び範囲を示すことができるので、術者に手術中の支援をすることができる。
器官領域推定モデルは、手術の術式を示す識別情報と、手術時に撮像された画像と、当該画像内における当該術式に関連する所定の器官の位置及び範囲との関係を予め学習したモデルであってもよい。器官領域推定部33は、器官領域推定モデルに、画像取得部31が取得した画像と、術式選択受付部30が受け付けた術式を示す識別情報と、を入力して、画像取得部31が取得した画像内における所定の器官の位置及び範囲を推定する。
所定の器官が手術中に損傷する確率の高い器官である場合、器官領域推定モデルは、手術の術式を示す識別情報と、手術時に撮像された画像と、当該画像内における当該術式による手術中に損傷する確率の高い器官の位置及び範囲との関係を予め学習したモデルであってもよい。器官領域推定部33は、当該器官領域推定モデルに、画像取得部31が取得した画像と、術式選択受付部30が受け付けた術式を示す識別情報と、を入力して、画像取得部31が取得した画像内における当該術式による手術中に損傷する確率の高い器官の位置及び範囲を推定する。
例えば、術式が子宮全摘術であり、当該術式の手術中に損傷する確率の高い器官が膀胱、直腸、腸管、尿管である場合、器官領域推定部33は、当該器官領域推定モデルに、画像取得部31が取得した画像と、術式選択受付部30が受け付けた子宮全摘術を示す識別情報とを入力して、画像取得部31が取得した画像内における膀胱、直腸、腸管、尿管の位置及び範囲を推定する。器官領域推定部33は、術式が特定されることによって推定する器官が絞られるので、当該器官の位置及び範囲の推定精度が向上する。
器官領域推定モデルは、手術の術式を示す識別情報と、術式の工程を示す識別情報と、手術時に撮像された画像と、当該画像内における術式の工程に関連する所定の器官の位置及び範囲との関係を学習したモデルであってもよい。器官領域推定部33は、器官領域推定モデルに、画像取得部31が取得した画像と、術式選択受付部30が受け付けた術式を示す識別情報と、工程推定部32により推定された工程を示す識別情報とを入力して、画像取得部31が取得した画像内における所定の器官の位置及び範囲を推定する。
所定の器官が手術中に損傷する確率の高い器官である場合、器官領域推定モデルは、手術の術式を示す識別情報と、術式の工程を示す識別情報と、手術時に撮像された画像と、当該画像内における当該術式による手術中に損傷する確率の高い器官の位置及び範囲との関係を予め学習したモデルであってもよい。器官領域推定部33は、当該器官領域推定モデルに、画像取得部31が取得した画像と、術式選択受付部30が受け付けた術式を示す識別情報と、工程推定部32より推定された工程を示す識別情報とを入力して、画像取得部31が取得した画像内における当該工程による手術中に損傷する確率の高い器官の位置及び範囲を推定する。
例えば、術式がS状結腸切除術、工程が工程6「直腸周囲剥離」であり、当該工程の手術中に損傷する確率の高い器官が小腸、回腸、上直腸動脈である場合、器官領域推定部33は、当該器官領域推定モデルに、画像取得部31が取得した画像と、術式選択受付部30が受け付けたS状結腸切除術を示す識別情報と、工程6「直腸周囲剥離」を示す識別情報とを入力して、画像取得部31が取得した画像内における小腸、回腸、上直腸動脈の位置及び範囲を推定する。器官領域推定部33は、術式が特定された上に更に工程が特定されることによって推定する器官が絞られるので、当該器官の位置及び範囲の推定精度が向上する。
(術具先端検知部)
術具先端検知部35は、術具の先端部の形状を予め学習した術具検知モデルを用い、画像取得部31により取得された画像の中の術具の先端部の位置を検知する。
術具先端検知部35は、公知の3次元形状認識手法により画像内の術具の先端部の位置を検知する。例えば、術具の3次元物体としての形状認識は、手術に使われる術具の外観を様々な角度から撮影した画像を多数用意し、この多数の画像を当該術具の3次元物体としての多視点画像群とし術具検知モデルに機械学習させることで学習モデルを生成する。術具先端検知部35は、当該機械学習により得られた術具検知モデルに画像取得部31により取得された画像を入力することで、画像内の術具の先端部の位置を検知する。
なお、術具先端検知部35は、それぞれの術具に対応するテンプレートを用いて、画像取得部31が取得した画像の一部が、テンプレートとの関係において所定の類似度を有するか否かにより術具の検知を行うパターンマッチングを行っても良い。
図4を参照して術具先端検知部35の術具の先端部の位置の検知について説明する。図4は、本実施形態の手術支援システム10に係る術具の先端部の位置を検知し内視鏡により撮像された画像に重畳表示した一例を示す図である。
図4に示す画像は2個の術具(第1術具59、第2術具60)を含む。術具先端検知部35は、画像取得部31により取得された画像内の第1術具49及び第2術具50を第1バウンディングボックス61及び第2バウンディングボックス62で囲う。次に、術具先端検知部35は、第1バウンディングボックス61及び第2バウンディングボックス62の中にある先端部を検知し、当該先端部のエッジ部分に第1強表表示63及び第2強調表示64を付与する。推定領域表示部44は、第1バウンディングボックス61、第2バウンディングボックス62、第1強表表示63、及び第2強調表示64を画像取得部31により取得された画像に重畳表示することで、術者に術具の先端位置を示す。
術具先端検知部35は、後述する手術支援システム10の器官損傷判定モード、切開開始判定モード、及び血管損傷判定モードに用いられる。
(器官損傷判定モード)
手術支援システム10の器官損傷判定モードは、手術中に器官が術具により損傷された場合を検知し術者などに報知するものである。
器官損傷判定部36は、術具先端検知部35により検知された先端部の位置が、器官領域推定部33により推定された所定の器官の位置及び範囲に達したか否かを判定する。
器官損傷報知部37は、器官損傷判定部36が達したと判定した場合に術者に器官損傷の可能性を報知する。器官損傷報知部37による報知の方法は、モニタ12、スマートグラス13への所定報知画面の表示、及びスマートグラス13、スピーカ26により所定の警報音の警鳴である。
(切開開始判定モード)
手術支援システム10の切開開始判定モードは、手術中に術者が器官を切開する際に、術具による実際の切開の開始を検知し術者などに報知するものである。
切開ライン推定部38は、手術の術式の工程に係る器官と、当該手術による切開箇所における切開前の画像と、当該画像に切開の際の術具の先端部の軌跡をアノテーションとして付与した画像との関係を予め学習した切開ライン推定モデルに、画像取得部31が取得した画像と、術式選択受付部30が受け付けた術式を示す識別情報と、工程推定部32により推定された工程を示す識別情報とを入力して、画像取得部31が取得した画像内における、切開の際に術具の先端部が通るべき切開ラインの位置及び範囲を推定する。
推定領域表示部44は、切開ライン推定部38によって推定された切開ラインを示す情報を、画像取得部31が取得した画像に重畳して表示する。
術者は、術具により切開する際に術具の先端部が何処を通れば良いか認識することができるので安全に切開することができる。
切開開始判定部39は、術具先端検知部35により検知された先端部の位置が、切開ライン推定部38により推定された切開ラインに達したか否かを判定する。
切開開始報知部40は、切開開始判定部39が達したと判定した場合に術者に切開開始の可能性を報知する。
図5乃至図7を参照して切開ライン推定モデルの学習データについて説明する。図5は本実施形態の手術支援システム10に係る実際の手術により切開をした跡の一例を示す図であり、図6は本実施形態の手術支援システム10に係る実際の手術による切開箇所の切開前の画像にアノテーションを付与した画像の一例を示す図であり、図7は本実施形態の手術支援システム10に係る内視鏡により撮像された画像に切開ラインを強調して内視鏡により撮像された画像に重畳表示した一例を示す図である。
図5に係る画像は、外科手術用エネルギーデバイス65による手術時の実際の切開ライン67を示している。手術時の切開の様子を撮影した動画において、図5に係る画像から所定時間巻き戻して、当該切開箇所の切開前に係る画像が図6の画像である。教師データは、図6の画像内の図5に係る切開箇所に相当する位置にアノテーション69を付与することで生成される。
切開ライン推定モデルは、手術による切開箇所における切開前の画像(図6のアノテーション69を付与する前の画像に相当)と、当該画像に切開の際の術具の先端部の軌跡をアノテーション69として付与した画像(図6に相当)と、当該手術の術式の工程に係る器官の関係を予め学習して生成されたものである。
器官領域推定部33は画像取得部31が取得した画像内における切開の際に術具の先端部が通るべき切開ラインの位置及び範囲を推定し、推定領域表示部44は、図7に示す様に画像取得部31が取得した画像の器官領域推定部33が推定した切開ラインの位置及び範囲に強調表示70を重畳表示する。
(血管損傷判定モード)
手術支援システム10の血管損傷判定モードは、手術中に血管が術具により損傷された場合を検知し術者などに報知するものである。
血管検出部41は、画像取得部31によって取得された画像の中の血管の位置及び範囲を検出する。血管検出部41は、公知の画像認識手法により画像内における血管を検知する。例えば、血管検出部41は、血管画像のパターンを予め学習したパターン認識モデルを用いて画像内の血管を検出する。血管検出部41は、画像取得部31によって取得された画像をパターン認識モデルに入力し、当該パターン認識モデルは当該画像内の血管のパターン画像に類似する部分を検出する。
血管損傷判定部42は、術具先端検知部35により検知された先端部の位置が、血管検出部41により検出された血管に達したか否かを判定する。
血管損傷報知部43は、血管損傷判定部42が達したと判定した場合に術者に血管の損傷の可能性を報知する。血管損傷報知部43による報知の方法は、モニタ12、スマートグラス13への所定報知画面の表示、及びスマートグラス13、スピーカ26による所定の警報音の警鳴である。
(指定領域表示部)
推定領域表示部44は、器官領域推定部33によって推定された所定の器官の位置及び範囲を示す情報を、画像取得部31が取得した画像に重畳して表示する。
推定領域表示部44は、器官領域推定部33によって推定された所定の器官の位置及び範囲に対してセマンティック・セグメンテーションを実施する。セマンティック・セグメンテーションとは、画像の画素ごとに所定のカテゴリに分類する方法であり、画像の中の全ての画素をカテゴリに分類する。
図8及び図9を参照して、推定領域表示部44の器官領域推定部33の推定結果を示す情報を、画像取得部31が取得した画像に重畳して表示する態様について説明する。
図8は本実施形態の手術支援システム10に係る内視鏡により撮像された画像の一例を示す図であり、図9は本実施形態の手術支援システム10に係る手術中に損傷する可能性の高い器官の位置及び範囲を強調して内視鏡により撮像された画像に重畳表示した一例を示す図である。
推定領域表示部44は、画像取得部31が取得した画像(図8参照)に、器官領域推定部33の推定結果を示す情報(強調表示73)を重畳表示する(図9参照)。
本実施形態におけるカテゴリとは各器官及び各術具である。推定領域表示部44は、画像に対して、セマンティック・セグメンテーションを実施することで、各器官及び各術具を分類し個々に識別可能に表示する。推定領域表示部44は、同じ器官及び同じ術具にはその存在する領域に同じ表示態様を用いて表示する。推定領域表示部44は、器官ごと、術具ごとに色、濃度、輝度、ハッチングパターン及び点滅パターンなど表示態様を変えることで、器官ごと、術具ごとの識別を可能にしている。
器官領域推定部33が、画像取得部31によって取得された画像において、複数の所定の器官の位置及び範囲を推定した場合、推定領域表示部44は、器官領域推定部33によって推定された複数の所定の器官を示す情報についてそれぞれ表示態様を変えて画像取得部31が取得した画像に重畳して表示する。
器官領域推定モデルは、学習の対象となる器官が自動性を有する場合は当該自動性に係る運動の態様を予め学習する。器官領域推定部33により推定された所定の器官が自動性を有する場合、推定領域表示部44は、器官領域推定部33によって推定された所定の器官を示す情報を所定の態様により強調して画像取得部31が取得した画像に重畳して表示する。
(露出度判定モード)
手術支援システム10の露出度判定モードは、器官領域推定部33により推定された所定の器官の露出度に応じて、推定領域表示部44の当該所定の器官を示す情報の表示態様を変えるものである。
露出度判定部34は、器官領域推定部33により推定された所定の器官の位置及び範囲と、画像取得部31によって取得された画像とを比較することで所定の器官の露出度を判定する。推定領域表示部44は、露出度判定部34により判定された露出度に応じて、器官領域推定部33によって推定された所定の器官を示す情報の表示態様を変える。
(トラッキング)
画像取得部31は連続する複数枚の画像を取得し、器官領域推定部33は画像取得部31により取得された連続する複数枚の画像を器官領域推定モデルに入力することによって所定の器官の位置及び範囲の軌跡を推定することとしてもよい。
例えば、画像取得部31は内視鏡により所定の間隔(例えば1秒)で撮像された画像を10枚取得し、器官領域推定部33は当該10枚の画像を器官領域推定モデルに入力してそれぞれの画像について所定の器官の位置及び範囲を推定する。推定領域表示部44は、器官領域推定部33が推定した所定の器官の10個の位置及び範囲を示す情報を画像取得部31が取得した画像に重畳して表示することで、所定の器官の10秒間の軌跡を術者に示すことができる。
(CT・MRI)
画像取得部31は、内視鏡により撮像された画像とともに、コンピュータ断層撮影(CT:Computed Tomography)により手術前に撮像された画像及び磁気共鳴画像撮影(MRI:Magnetic Resonance Imaging)により手術前に撮像された画像のうち少なくとも何れか一方を取得し、器官領域推定部33は、画像取得部31によって取得された画像を器官領域推定モデルに入力することによって所定の器官の位置及び範囲を推定し、推定領域表示部44は、器官領域推定部33によって推定された所定の器官の位置及び範囲を示す情報を、画像取得部31が取得したコンピュータ断層撮影(CT)により手術前に撮像された画像及び磁気共鳴画像撮影(MRI)により手術前に撮像された画像のうち少なくとも何れか一方に重畳表示する。
コンピュータ断層撮影(CT)及び磁気共鳴画像撮影(MRI)は、人体内部を3次元の画像によって表示することができる。推定領域表示部44は、器官領域推定部33が推定した所定の器官の位置及び範囲を示す情報をコンピュータ断層撮影(CT)及び磁気共鳴画像撮影(MRI)のうち少なくとも何れか一方で撮像した3次元の画像に重畳表示することで術者に所定の器官を分かりやすく示すことができる。
図10を参照して、子宮頸部80のうち膀胱81に近い側の子宮頸部80の位置及び範囲を強調して内視鏡により撮像された画像に重畳表示(82)した態様について説明する。図10は、本実施形態の手術支援システム10に係る、子宮頸部80のうち膀胱81に近い側の子宮頸部80の位置及び範囲を強調して内視鏡により撮像された画像に重畳表示(82)した一例を示す図である。
内視鏡が腹腔鏡であって、器官領域推定部33が、画像取得部31によって取得された画像を器官領域推定モデルに入力することにより隣り合う2つの器官の位置及び範囲を推定した場合、推定領域表示部44は、隣り合う2つの器官のうちの一方の器官の位置及び範囲を示す情報のうち、隣り合う2つの器官のうちの他方の器官の位置及び範囲に近い部分を画像取得部31が取得した画像に重畳して表示する。
隣り合う2つの器官とは、一方の器官の施術中に術具等が他方の器官に接触する恐れがあるほどに相互に接近している2つの器官のことをいう。
例えば図10に示すように、器官領域推定部33が、膀胱81及び子宮頸部80の位置及び範囲を推定した場合、推定領域表示部44は、子宮頸部80の位置及び範囲を示す情報のうち、膀胱81の位置及び範囲に近い部分82を画像取得部31が取得した画像に重畳して表示する。
術者が、隣り合う2つの器官のうちの一方の器官に関する治療を施術する場合、他方の器官に近い部分が術者により損傷される可能性が高い。このような場合は、一方の器官のうち他方の器官に近い部分を強調表示することで、一方の器官のうち損傷の可能性の高い部位について術者に注意を促すことができ、術者の術中の事故の発生を効果的に抑制することができる。
図10の例では、子宮頸部80の膀胱81に近い部分が術者により損傷される可能性が高い。従って、子宮頸部80の膀胱81に近い部分を強調表示する。
(手術支援方法及び手術支援プログラム)
次に図11乃至図14を参照して、本実施形態に係る手術支援方法について手術支援プログラムとともに説明する。図11乃至図14は本実施形態に係る手術支援プログラムのフローチャートである。
手術支援システム10は、手術支援プログラムを実行することで4つのモード(露出度判定モード、器官損傷判定モード、切開開始判定モード、及び血管損傷判定モード)で動作する。露出度判定モード、器官損傷判定モード、切開開始判定モード、及び血管損傷判定モードに係るそれぞれのフローチャートを説明することで、手術支援方法及び手術支援プログラムを説明するものとする。
図11は本実施形態の手術支援プログラムに係る器官露出判定モードのフローチャートであり、図12は本実施形態の手術支援プログラムに係る器官損傷判定モードのフローチャートであり、図13は本実施形態の手術支援プログラムに係る切開開始判定モードのフローチャートであり、図14は本実施形態の手術支援プログラムに係る血管損傷判定モードのフローチャートである。
(器官露出度判定モード)
図11に示す様に、器官露出判定モードのフローチャートは、術式選択受付ステップS30、画像取得ステップS31、工程推定ステップS32、器官領域推定ステップS33、露出度判定ステップS34、推定領域表示ステップS44などを含む。
手術支援システム10は、ROM10b若しくは記憶部10dに保存された手術支援プログラムをメインメモリに取り込み、CPU10eにより器官露出判定モードに関連のある手術支援プログラムを実行する。
器官露出判定モードに関連のある手術支援プログラムは、手術支援システム10のCPU10eに対して、術式選択受付機能、画像取得機能、工程推定機能、器官領域推定機能、露出度判定機能、推定領域表示機能などの各種機能を実現させる。
これらの機能は図11のフローチャートに示す順序で処理を行う場合を例示したが、これに限らず、これらの順番を適宜入れ替えて器官露出判定モードに関連のある手術支援プログラムを実行してもよい。
なお、上記した各機能は、前述の術式選択受付部30、画像取得部31、工程推定部32、器官領域推定部33、露出度判定部34、推定領域表示部44の説明と重複するため、その詳細な説明は省略する。
術式選択受付機能は、手術の術式の選択を受け付ける(S30:術式選択受付ステップ)。
画像取得機能は、内視鏡により撮像された画像を取得する(S31:画像取得ステップ)。
工程推定機能は、手術の術式の開始から終了までの過程を内容ごとに分類し順次実施される一連の工程の各工程と、手術時に撮像された画像との関係を予め学習した工程分類モデルに、画像取得機能において取得された画像と、術式選択受付機能において受け付けた術式を示す識別情報とを入力して、画像取得機能において取得した画像における術式の工程を推定する(S32:工程推定ステップ)。
器官領域推定機能は、手術時に撮像された画像と、当該画像内における所定の器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、画像取得機能おいて取得された画像を入力して、画像取得機能おいて取得された画像内における所定の器官の位置及び範囲を推定する(S33:器官領域推定ステップ)。
露出度判定機能は、器官領域推定機能において推定された所定の器官の位置及び範囲と、画像取得機能において取得された画像とを比較することで所定の器官の露出度を判定する(S34:露出度判定ステップ)。
推定領域表示機能は、器官領域推定機能において推定された所定の器官の位置及び範囲を示す情報を、画像取得機能において取得した画像に重畳して表示する(S44:推定領域表示ステップ)。
(器官損傷判定モード)
図12に示す様に、器官損傷判定モードのフローチャートは、術式選択受付ステップS30、画像取得ステップS31、工程推定ステップS32、器官領域推定ステップS33、術具先端検知ステップS35、器官損傷判定ステップS36、器官損傷報知ステップS37、推定領域表示ステップS44などを含む。
手術支援システム10は、ROM10b若しくは記憶部10dに保存された手術支援プログラムをメインメモリに取り込み、CPU10eにより器官損傷判定モードに関連のある手術支援プログラムを実行する。
器官損傷判定モードに関連のある手術支援プログラムは、手術支援システム10のCPU10eに対して、術式選択受付機能、画像取得機能、工程推定機能、器官領域推定機能、術具先端検知機能、器官損傷判定機能、器官損傷報知機能、推定領域表示機能などの各種機能を実現させる。
これらの機能は図12のフローチャートに示す順序で処理を行う場合を例示したが、これに限らず、これらの順番を適宜入れ替えて器官損傷判定モードに関連のある手術支援プログラムを実行してもよい。
なお、上記した各機能は、前述の術式選択受付部30、画像取得部31、工程推定部32、器官領域推定部33、術具先端検知部35、器官損傷判定部36、器官損傷報知部37、推定領域表示部44の説明と重複するため、その詳細な説明は省略する。
術式選択受付機能は、手術の術式の選択を受け付ける(S30:術式選択受付ステップ)。
画像取得機能は、内視鏡により撮像された画像を取得する(S31:画像取得ステップ)。
工程推定機能は、手術の術式の開始から終了までの過程を内容ごとに分類し順次実施される一連の工程の各工程と、手術時に撮像された画像との関係を予め学習した工程分類モデルに、画像取得機能において取得された画像と、術式選択受付機能において受け付けた術式を示す識別情報とを入力して、画像取得機能において取得した画像における術式の工程を推定する(S32:工程推定ステップ)。
器官領域推定機能は、手術時に撮像された画像と、当該画像内における所定の器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、画像取得機能おいて取得された画像を入力して、画像取得機能おいて取得された画像内における所定の器官の位置及び範囲を推定する(S33:器官領域推定ステップ)。
術具先端検知機能は、術具の先端部の形状を予め学習した術具検知モデルを用い、画像取得機能において取得された画像の中の術具の先端部の位置を検知する(S35:術具先端検知ステップ)。
器官損傷判定機能は、術具先端検知機能において検知された先端部の位置が、器官領域推定機能において推定された所定の器官の位置及び範囲に達したか否かを判定する(S36:器官損傷判定ステップ)。
器官損傷報知機能は、器官損傷判定機能において達したと判定した場合に術者に器官損傷の可能性を報知する(S37:器官損傷報知ステップ)。
推定領域表示機能は、器官領域推定機能において推定された所定の器官の位置及び範囲を示す情報を、画像取得機能において取得した画像に重畳して表示する(S44:推定領域表示ステップ)。
(切開開始判定モード)
図13に示す様に、切開開始判定モードのフローチャートは、術式選択受付ステップS30、画像取得ステップS31、工程推定ステップS32、器官領域推定ステップS33、術具先端検知ステップS35、切開ライン推定ステップS38、切開開始判定ステップS39、切開開始報知ステップS40、推定領域表示ステップS44などを含む。
手術支援システム10は、ROM10b若しくは記憶部10dに保存された手術支援プログラムをメインメモリに取り込み、CPU10eにより切開開始判定モードに関連のある手術支援プログラムを実行する。
切開開始判定モードに関連のある手術支援プログラムは、手術支援システム10のCPU10eに対して、術式選択受付機能、画像取得機能、工程推定機能、器官領域推定機能、術具先端検知機能、切開ライン推定機能、切開開始判定機能、切開開始報知機能、推定領域表示機能などの各種機能を実現させる。
これらの機能は図13のフローチャートに示す順序で処理を行う場合を例示したが、これに限らず、これらの順番を適宜入れ替えて切開開始判定モードに関連のある手術支援プログラムを実行してもよい。
なお、上記した各機能は、前述の術式選択受付部30、画像取得部31、工程推定部32、器官領域推定部33、術具先端検知部35、切開ライン推定部38、切開開始判定部39、切開開始報知部40、推定領域表示部44の説明と重複するため、その詳細な説明は省略する。
術式選択受付機能は、手術の術式の選択を受け付ける(S30:術式選択受付ステップ)。
画像取得機能は、内視鏡により撮像された画像を取得する(S31:画像取得ステップ)。
工程推定機能は、手術の術式の開始から終了までの過程を内容ごとに分類し順次実施される一連の工程の各工程と、手術時に撮像された画像との関係を予め学習した工程分類モデルに、画像取得機能において取得された画像と、術式選択受付機能において受け付けた術式を示す識別情報とを入力して、画像取得機能において取得した画像における術式の工程を推定する(S32:工程推定ステップ)。
器官領域推定機能は、手術時に撮像された画像と、当該画像内における所定の器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、画像取得機能おいて取得された画像を入力して、画像取得機能おいて取得された画像内における所定の器官の位置及び範囲を推定する(S33:器官領域推定ステップ)。
術具先端検知機能は、術具の先端部の形状を予め学習した術具検知モデルを用い、画像取得機能において取得された画像の中の術具の先端部の位置を検知する(S35:術具先端検知ステップ)。
切開ライン推定機能は、手術の術式の工程に係る器官と、当該手術による切開箇所における切開前の画像と、当該画像に切開の際の術具の先端部の軌跡をアノテーションとして付与した画像との関係を予め学習した切開ライン推定モデルに、画像取得機能において取得した画像と、術式選択受付機能において受け付けた術式を示す識別情報と、工程推定機能において推定された工程を示す識別情報とを入力して、画像取得機能において取得した画像内における、切開の際に術具の先端部が通るべき切開ラインの位置及び範囲を推定する(S38:切開ライン推定ステップ)。
切開開始判定機能は、術具先端検知機能において検知された先端部の位置が、切開ライン推定機能において推定された切開ラインに達したか否かを判定する(S39:切開開始判定ステップ)。
切開開始報知機能は、切開開始判定機能において達したと判定した場合に術者に切開開始の可能性を報知する(S40:切開開始報知ステップ)。
(血管損傷判定モード)
図14に示す様に、血管損傷判定モードのフローチャートは、術式選択受付ステップS30、画像取得ステップS31、工程推定ステップS32、器官領域推定ステップS33、術具先端検知ステップS35、血管検出ステップS41、血管損傷判定ステップS42、血管損傷報知ステップS43、推定領域表示ステップS44などを含む。
手術支援システム10は、ROM10b若しくは記憶部10dに保存された手術支援プログラムをメインメモリに取り込み、CPU10eにより血管損傷判定モードに関連のある手術支援プログラムを実行する。
血管損傷判定モードに関連のある手術支援プログラムは、手術支援システム10のCPU10eに対して、術式選択受付機能、画像取得機能、工程推定機能、器官領域推定機能、術具先端検知機能、血管検出機能、血管損傷判定機能、血管損傷報知機能、推定領域表示機能などの各種機能を実現させる。
これらの機能は図13のフローチャートに示す順序で処理を行う場合を例示したが、これに限らず、これらの順番を適宜入れ替えて切開開始判定モードに関連のある手術支援プログラムを実行してもよい。
なお、上記した各機能は、前述の術式選択受付部30、画像取得部31、工程推定部32、器官領域推定部33、術具先端検知部35、血管検出部41、血管損傷判定部42、血管損傷報知部43、推定領域表示部44の説明と重複するため、その詳細な説明は省略する。
術式選択受付機能は、手術の術式の選択を受け付ける(S30:術式選択受付ステップ)。
画像取得機能は、内視鏡により撮像された画像を取得する(S31:画像取得ステップ)。
工程推定機能は、手術の術式の開始から終了までの過程を内容ごとに分類し順次実施される一連の工程の各工程と、手術時に撮像された画像との関係を予め学習した工程分類モデルに、画像取得機能において取得された画像と、術式選択受付機能において受け付けた術式を示す識別情報とを入力して、画像取得機能において取得した画像における術式の工程を推定する(S32:工程推定ステップ)。
器官領域推定機能は、手術時に撮像された画像と、当該画像内における所定の器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、画像取得機能おいて取得された画像を入力して、画像取得機能おいて取得された画像内における所定の器官の位置及び範囲を推定する(S33:器官領域推定ステップ)。
術具先端検知機能は、術具の先端部の形状を予め学習した術具検知モデルを用い、画像取得機能において取得された画像の中の術具の先端部の位置を検知する(S35:術具先端検知ステップ)。
血管検出機能は、画像取得機能において取得された画像の中の血管の位置及び範囲を検出する(S41:血管検出ステップ)。
血管損傷判定機能は、術具先端検知機能において検知された先端部の位置が、血管検出機能において検出された血管に達したか否かを判定する(S42:血管損傷判定ステップ)。
血管損傷報知機能は、血管損傷判定機能において達したと判定した場合に術者に血管の損傷の可能性を報知する(S43:血管損傷報知ステップ)。
推定領域表示機能は、器官領域推定機能において推定された所定の器官の位置及び範囲を示す情報を、画像取得機能において取得した画像に重畳して表示する(S44:推定領域表示ステップ)。
(学習モデルの生成過程)
次に図15、16を参照して、手術支援システム10の学習モデル(器官領域推定モデル、工程分類モデル、及び切開ライン推定モデル)の生成過程について説明する。図15は手術支援システム10の学習モデルの生成過程における機能ブロック図であり、図16は手術支援システム10の学習モデルの生成過程のプログラム(以下、学習モデル生成プログラムという)のフローチャートである。
先ず図15を参照して、手術支援システム10の学習モデルの生成過程における機能的構成について説明する。
手術支援システム10は、学習モデルの生成過程で必要となる学習モデル生成プログラムをROM10b若しくは記憶部10dに保存し、RAM10cなどで構成されるメインメモリに学習モデル生成プログラムを取り込む。CPU10eは、学習モデル生成プログラムを取り込んだメインメモリにアクセスして学習モデル生成プログラムを実行する。
手術支援システム10は、学習モデル生成プログラムを実行することで、CPU10eに画像取得部85、前処理部86、セグメンテーション部87、画像抽出部88、教師データ取得部89、評価部90、パラメータ調整部91、学習モデル生成部92、学習モデル記憶部93などを機能部として備える。
画像取得部85は、RAM10c又は記憶部10dに記憶されている手術時に撮像された画像を取得する。
画像取得部85は、手術支援システム10の外部に記憶されている手術時に撮像された画像を通信インターフェース10aを介してネットワーク11から入手してもよい。
前処理部86は、画像取得部85が取得した画像に対して前処理を行う。
前処理とは、学習モデルに入力する画像が持つ規則性(特徴量)について、学習モデルが学習できるように、当該画像を学習モデルに入力する前に行う処理のことである。前処理には、特徴量を際立たせる処理、ノイズを除去する処理、及び特徴量を増やす処理がある。特徴量を際立たせる処理として、グレースケール変換、2値化、及び正規化がある。ノイズを除去する処理として、モルフォロジー変換、ヒストグラム、次元圧縮、リサイズがある。特徴量を増やす処理として、画像の反転、平滑化、明度変更を行う画像水増しがある。
セグメンテーション部87は、前処理部86により前処理が行われた画像に対して、当該画像内に存在する物体ごとの領域に分割するセグメンテーションを実施する。
セグメンテーション部87は、ニューラルネットワークを用いてセグメンテーションを行う。
画像抽出部88は、セグメンテーション部87によりセグメンテーションが実施された画像から画像認識の対象となる物体の画像を抽出する。
器官領域推定モデルを学習する際における物体とは、所定の器官又は部位のことである。所定の器官又は部位とは、例えば、手術中に損傷する可能性の高い器官又は部位のことである。
工程分類モデルを学習する際における物体とは、画像内の器官のことである。
切開ライン推定モデルを学習する際における物体とは、画像内の器官及び切開ラインのことである。
教師データ取得部89は、RAM10c又は記憶部10dに記憶されている教師データを取得する。
教師データ取得部89は、手術支援システム10の外部に記憶されている教師データを通信インターフェース10aを介してネットワーク11から入手してもよい。
教師データとは、手術時に撮像された画像内の物体に対して、画像認識の対象となる物体が占める領域の輪郭線情報を付与(セグメンテーション)した後、その領域の器官又は部位の名称などの特徴を付与するラベリングを行うアノテーションにより得られる。
器官領域推定モデルの教師データは、画像認識の対象となる器官の位置及び範囲にアノテーションが付与された画像である。
工程分類モデルの教師データは、画像認識の対象となる工程の名称が付与された画像である。
切開ライン推定モデルの教師データは、画像認識の対象となる切開ラインの位置及び範囲にアノテーションが付与された画像である。
評価部90は、誤差関数を用い画像抽出部88が抽出した画像と教師データ取得部89が取得した教師データとの誤差を算出することで、学習モデルを評価する。
誤差関数とは、画像抽出部88が抽出した画像と教師データ取得部89が取得した教師データとの間のズレの大きさを表す関数であり、学習モデルの予測精度を評価する関数である。学習モデルは、誤差関数の値が小さいほど正確なモデルと評価される。
パラメータ調整部91は、評価部90が算出した誤差関数の値が最小になるように学習モデルに用いるニューラルネットワークの重み係数を表すパラメータを調整する。
パラメータ調整部91は、誤差逆伝播法(Backpropagation)を用い、誤差関数の値を学習モデルに用いるニューラルネットワークの各層に伝播させて当該誤差が最小になるように各層の重み係数を表すパラメータを調整する。
学習モデル生成部92は、誤差関数の値が最小になるようにパラメータ調整部91によって調整されたパラメータを用いて学習モデルを生成する。
学習モデル記憶部93は、学習モデル生成部92のよって生成された学習モデルをRAM10c又は記憶部10dに記憶する。
なお、本実施形態では、手術支援システム10が学習モデルを生成するが、これに限定されるものではなく、手術支援システム10とは異なる電子計算機が手術支援システム10の学習モデルを生成してもよい。
次に図16を参照して、手術支援システム10の学習モデル生成プログラムについて説明する。
図16に示す様に、学習モデル生成プログラムは、画像取得ステップS85、前処理ステップS86、セグメンテーションステップS87、画像抽出ステップS88、教師データ取得ステップS89、評価ステップS90、パラメータ調整ステップS91、学習モデル生成ステップS92、学習モデル記憶ステップS93などを含む。
手術支援システム10は、ROM10b若しくは記憶部10dに保存された学習モデル生成プログラムをメインメモリに取り込み、CPU10eにより学習モデル生成プログラムを実行する。
学習モデル生成プログラムは、手術支援システム10のCPU10eに対して、画像取得機能、前処理機能、セグメンテーション機能、画像抽出機能、教師データ取得機能、評価機能、パラメータ調整機能、学習モデル生成機能、学習モデル記憶機能などの各種機能を実現させる。
これらの機能は図16のフローチャートに示す順序で処理を行う場合を例示したが、これに限らず、これらの順番を適宜入れ替えて学習モデル生成プログラムを実行してもよい。
なお、上記した各機能は、前述の画像取得部85、前処理部86、セグメンテーション部87、画像抽出部88、教師データ取得部89、評価部90、パラメータ調整部91、学習モデル生成部92、学習モデル記憶部93の説明と重複するため、その詳細な説明は省略する。
画像取得機能は、RAM10c又は記憶部10dに記憶されている手術時に撮像された画像を取得する(S85:画像取得ステップ)。
前処理機能は、画像取得機能において取得した画像に対して前処理を行う(S86:前処理ステップ)。
セグメンテーション機能は、前処理機能において前処理が行われた画像に対して、当該画像内に存在する物体ごとの領域に分割するセグメンテーションを実施する(S87:セグメンテーションステップ)。
画像抽出機能は、セグメンテーション機能においてセグメンテーションが実施された画像から画像認識の対象となる物体の画像を抽出する(S88:画像抽出ステップ)。
教師データ取得機能は、RAM10c又は記憶部10dに記憶されている教師データを取得する(S89:教師データ取得ステップ)。
評価機能は、誤差関数を用い画像抽出機能において抽出した画像と教師データ取得機能において取得した教師データとの誤差を算出することで、学習モデルを評価する(S90:評価ステップ)。
パラメータ調整機能は、評価機能において算出した誤差関数の値が最小になるように学習モデルに用いるニューラルネットワークの重み係数を表すパラメータを調整する(S91:パラメータ調整ステップ)。
学習モデル生成機能は、誤差関数の値が最小になるようにパラメータ調整機能において調整されたパラメータを用いて学習モデルを生成する(S92:学生モデル生成ステップ)。
学習モデル記憶機能は、学習モデル生成機能において生成された学習モデルをRAM10c又は記憶部10dに記憶する(S93:学習モデル記憶ステップ)。
上記した実施形態によれば、手術支援システム10は、内視鏡システム14の内視鏡が撮像した画像を器官領域推定モデルに入力することで、即時に当該画像内の手術時に損傷する可能性の高い器官の位置及び範囲を推定し、内視鏡システム14の内視鏡が撮像した画像に手術時に損傷する可能性の高い器官を重畳して術者に示すことができる。これにより、術中の視野を広範囲に確保する目的でカメラなどの機器を被検者の体腔内に追加して設置することなく、術者は手術中に、損傷する可能性の高い器官に注意しながら切開等の施術をすることができる。
上記した実施形態によれば、手術支援システム10は、内視鏡システム14の内視鏡が撮像した画像から術式の工程を即座に推定することができるので、術者に現時点の工程を術者に示すことができ、術者は自分が行っている術式の工程を確認しながら手術を進めることができる。
上記した実施形態によれば、手術支援システム10は、手術中に切開する際に術具の先端部が通るべき切開ラインを術者に示すことができるので、術者は安心して切開を行うことができ手術の失敗の可能性を低くすることができる。
本開示は上記した実施形態に係る手術支援システム10、手術支援方法、及び手術支援プログラムに限定されるものではなく、特許請求の範囲に記載した本開示の要旨を逸脱しない限りにおいて、その他種々の変形例、若しくは応用例により実施可能である。
10 手術支援システム
10a 通信インターフェース
10b Read Only Memory(ROM)
10c Random Access Memory(RAM)
10d 記憶部
10e Central Processing Unit(CPU)
10f 通信インターフェース
10g 入力装置
10h 出力装置
11 ネットワーク
12 モニタ
13 スマートグラス
14 内視鏡システム
15 入力装置
16 フットスイッチ
17 マイク
18 キーボード
19 マウス
20 スキャナ
26 出力装置
27 スピーカ
28 プリンタ
30 術式選択受付部
31 画像取得部
32 工程推定部
33 器官領域推定部
34 露出度判定部
35 術具先端検知部
36 器官損傷判定部
37 器官損傷報知部
38 切開ライン推定部
39 切開開始判定部
40 切開開始報知部
41 血管検出部
42 血管損傷判定部
43 血管損傷報知部
44 推定領域表示部
59 第1術具
60 第2術具
61 第1バウンディングボックス
62 第2バウンディングボックス
63 第1強調表示
64 第2強調表示
65 外科手術用エネルギーデバイス
67 実際の切開ライン
68 術具
69 アノテーション
70 強調表示
73 強調表示
80 子宮頸部
81 膀胱
82 強調表示
85 画像取得部
86 前処理部
87 セグメンテーション分
88 画像抽出部
89 教師データ取得部
90 評価部
91 パラメータ調整部
92 学習モデル生成部
93 学習モデル記憶部

Claims (9)

  1. 内視鏡により撮像された画像を取得する画像取得部と、
    手術の術式の選択を受け付ける術式選択受付部と、
    手術の術式を示す識別情報と、手術時に内視鏡により撮像された画像と、当該画像内における当該術式に係る手術中に損傷する確率の高い器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、前記画像取得部によって取得された前記画像と、前記術式選択受付部が受け付けた術式を示す識別情報を入力して、前記画像取得部によって取得された前記画像内における前記手術中に損傷する確率の高い器官の位置及び範囲を推定する器官領域推定部と、
    前記器官領域推定部によって推定された前記手術中に損傷する確率の高い器官の位置及び範囲を示す情報を、前記画像取得部が取得した画像に重畳して表示する推定領域表示部と、
    を備える手術支援システム。
  2. 術具の先端部の形状を予め学習した術具検知モデルを用い、前記画像取得部により取得された画像の中の前記術具の先端部の位置を検知する術具先端検知部と、
    前記術具先端検知部により検知された前記先端部の位置が、前記器官領域推定部により推定された前記手術中に損傷する確率の高い器官に達したか否かを判定する器官損傷判定部と、
    前記器官損傷判定部が達したと判定した場合に術者に器官損傷の可能性を報知する器官損傷報知部と、
    を備えることを特徴とする請求項1に記載の手術支援システム。
  3. 術具の先端部の形状を予め学習した術具検知モデルを用い、前記画像取得部により取得された画像の中の前記術具の先端部の位置を検知する術具先端検知部と、
    前記画像取得部によって取得された前記画像の中の血管の位置及び範囲を検出する血管検出部と、
    前記術具先端検知部により検知された前記先端部の位置が、前記血管検出部により検出された血管に達したか否かを判定する血管損傷判定部と、
    前記血管損傷判定部が達したと判定した場合に術者に血管の損傷の可能性を報知する血管損傷報知部と、
    を備えることを特徴とする請求項1又は2に記載の手術支援システム。
  4. 前記器官領域推定部が、前記画像取得部によって取得された前記画像において、複数の前記手術中に損傷する確率の高い器官の位置及び範囲を推定した場合、
    前記推定領域表示部は、前記器官領域推定部によって推定された複数の前記手術中に損傷する確率の高い器官を示す情報についてそれぞれ表示態様を変えて前記画像取得部が取得した画像に重畳して表示することを特徴とする請求項1乃至の何れか1項に記載の手術支援システム。
  5. 前記器官領域推定モデルは、学習の対象となる器官が自動性を有する場合は当該自動性に係る運動の態様を予め学習し、
    前記器官領域推定部により推定された前記手術中に損傷する確率の高い器官が自動性を有する場合、
    前記推定領域表示部は、前記器官領域推定部によって推定された前記手術中に損傷する確率の高い器官を示す情報を所定の態様により強調して前記画像取得部が取得した画像に重畳して表示することを特徴とする請求項1乃至の何れか1項に記載の手術支援システム。
  6. 前記器官領域推定部により推定された前記手術中に損傷する確率の高い器官の位置及び範囲と、前記画像取得部によって取得された前記画像とを比較することで前記手術中に損傷する確率の高い器官の露出度を判定する露出度判定部と、
    前記推定領域表示部は、前記露出度判定部により判定された露出度に応じて、前記器官領域推定部によって推定された前記手術中に損傷する確率の高い器官を示す情報の表示態様を変えることを特徴とする請求項1乃至の何れか1項に記載の手術支援システム。
  7. 前記画像取得部は、連続する複数枚の前記画像を取得し、
    前記器官領域推定部は、前記画像取得部により取得された連続する複数枚の前記画像を前記器官領域推定モデルに入力することによって前記手術中に損傷する確率の高い器官の位置及び範囲の軌跡を推定することを特徴とする請求項1乃至の何れか1項に記載の手術支援システム。
  8. 手術支援システムに用いられるコンピュータが、
    内視鏡により撮像された画像を取得する画像取得ステップと、
    手術の術式の選択を受け付ける術式選択受付ステップと、
    手術の術式を示す識別情報と、手術時に内視鏡により撮像された画像と、当該画像内における当該術式に係る手術中に損傷する確率の高い器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、前記画像取得ステップによって取得された前記画像と、前記術式選択受付ステップが受け付けた術式を示す識別情報を入力して、前記画像取得ステップによって取得された前記画像内における前記手術中に損傷する確率の高い器官の位置及び範囲を推定する器官領域推定ステップと、
    前記器官領域推定ステップによって推定された前記手術中に損傷する確率の高い器官の位置及び範囲を示す情報を、前記画像取得ステップが取得した画像に重畳して表示する推定領域表示ステップと、
    を実行する手術支援方法。
  9. 手術支援システムに用いられるコンピュータに、
    内視鏡により撮像された画像を取得する画像取得機能と、
    手術の術式の選択を受け付ける術式選択受付機能と、
    手術の術式を示す識別情報と、手術時に内視鏡により撮像された画像と、当該画像内における当該術式に係る手術中に損傷する確率の高い器官の位置及び範囲との関係を予め学習した器官領域推定モデルに、前記画像取得機能によって取得された前記画像と、前記術式選択受付機能が受け付けた術式を示す識別情報を入力して、前記画像取得機能によって取得された前記画像内における前記手術中に損傷する確率の高い器官の位置及び範囲を推定する器官領域推定機能と、
    前記器官領域推定機能によって推定された前記手術中に損傷する確率の高い器官の位置及び範囲を示す情報を、前記画像取得機能が取得した画像に重畳して表示する推定領域表示機能と、
    を発揮させる手術支援プログラム。
JP2022082189A 2021-11-26 2022-05-19 手術支援システム、手術支援方法、及び手術支援プログラム Active JP7148193B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022082189A JP7148193B1 (ja) 2021-11-26 2022-05-19 手術支援システム、手術支援方法、及び手術支援プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021192441A JP7081862B1 (ja) 2021-11-26 2021-11-26 手術支援システム、手術支援方法、及び手術支援プログラム
JP2022082189A JP7148193B1 (ja) 2021-11-26 2022-05-19 手術支援システム、手術支援方法、及び手術支援プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021192441A Division JP7081862B1 (ja) 2021-11-26 2021-11-26 手術支援システム、手術支援方法、及び手術支援プログラム

Publications (2)

Publication Number Publication Date
JP7148193B1 true JP7148193B1 (ja) 2022-10-05
JP2023079148A JP2023079148A (ja) 2023-06-07

Family

ID=87852918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022082189A Active JP7148193B1 (ja) 2021-11-26 2022-05-19 手術支援システム、手術支援方法、及び手術支援プログラム

Country Status (1)

Country Link
JP (1) JP7148193B1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019116593A1 (ja) 2017-12-14 2019-06-20 オリンパス株式会社 手術支援装置
WO2020110278A1 (ja) 2018-11-30 2020-06-04 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
JP2020156860A (ja) 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
JP7081862B1 (ja) 2021-11-26 2022-06-07 株式会社Jmees 手術支援システム、手術支援方法、及び手術支援プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019116593A1 (ja) 2017-12-14 2019-06-20 オリンパス株式会社 手術支援装置
WO2020110278A1 (ja) 2018-11-30 2020-06-04 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法
JP2020156860A (ja) 2019-03-27 2020-10-01 学校法人兵庫医科大学 脈管認識装置、脈管認識方法および脈管認識システム
JP7081862B1 (ja) 2021-11-26 2022-06-07 株式会社Jmees 手術支援システム、手術支援方法、及び手術支援プログラム

Also Published As

Publication number Publication date
JP2023079148A (ja) 2023-06-07

Similar Documents

Publication Publication Date Title
WO2023095492A1 (ja) 手術支援システム、手術支援方法、及び手術支援プログラム
CN111227864B (zh) 使用超声图像利用计算机视觉进行病灶检测的装置
CN112804958A (zh) 指示器系统
CN111214255B (zh) 一种医学超声图像计算机辅助方法
EP1994878A1 (en) Image processing device for medical use and image processing method for medical use
KR102531400B1 (ko) 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법
JP7153974B2 (ja) コンピュータプログラム、学習モデルの生成方法、及び画像処理装置
JP2023523562A (ja) ビデオにおけるコンピュータ支援形状測定のためのシステムおよび方法
JP7194889B2 (ja) コンピュータプログラム、学習モデルの生成方法、手術支援装置、及び情報処理方法
JP7457415B2 (ja) コンピュータプログラム、学習モデルの生成方法、及び支援装置
US20210298848A1 (en) Robotically-assisted surgical device, surgical robot, robotically-assisted surgical method, and system
US20230245753A1 (en) Systems and methods for ai-assisted surgery
US20240104733A1 (en) Systems and methods to process electronic medical images for diagnostic or interventional use
JP7376677B2 (ja) 画像処理システム、内視鏡システム及び内視鏡システムの作動方法
JP7148193B1 (ja) 手術支援システム、手術支援方法、及び手術支援プログラム
JPWO2019087969A1 (ja) 内視鏡システム、報知方法、及びプログラム
Lahane et al. Detection of unsafe action from laparoscopic cholecystectomy video
JP4615842B2 (ja) 内視鏡システムおよび内視鏡画像処理装置
KR20220122312A (ko) 인공 지능 기반 위 내시경 영상 진단 보조 시스템 및 방법
JP7368922B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
WO2023218523A1 (ja) 第2の内視鏡システム、第1の内視鏡システム、および内視鏡検査方法
US20240095919A1 (en) Image processing device, endoscope system, image processing method, and information storage medium
WO2024004013A1 (ja) プログラム、情報処理方法、及び情報処理装置
WO2023126999A1 (ja) 画像処理装置、画像処理方法、及び、記憶媒体
KR20220138432A (ko) 머신러닝을 이용한 전방십자인대 파열 진단 장치 및 그 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220714

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220914

R150 Certificate of patent or registration of utility model

Ref document number: 7148193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150