JP7153974B2 - コンピュータプログラム、学習モデルの生成方法、及び画像処理装置 - Google Patents

コンピュータプログラム、学習モデルの生成方法、及び画像処理装置 Download PDF

Info

Publication number
JP7153974B2
JP7153974B2 JP2021574738A JP2021574738A JP7153974B2 JP 7153974 B2 JP7153974 B2 JP 7153974B2 JP 2021574738 A JP2021574738 A JP 2021574738A JP 2021574738 A JP2021574738 A JP 2021574738A JP 7153974 B2 JP7153974 B2 JP 7153974B2
Authority
JP
Japan
Prior art keywords
connective tissue
organ
field image
learning model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021574738A
Other languages
English (en)
Other versions
JPWO2021153797A1 (ja
JPWO2021153797A5 (ja
Inventor
直 小林
尚紀 北村
勇太 熊頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ANAUT INC.
Original Assignee
ANAUT INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ANAUT INC. filed Critical ANAUT INC.
Publication of JPWO2021153797A1 publication Critical patent/JPWO2021153797A1/ja
Publication of JPWO2021153797A5 publication Critical patent/JPWO2021153797A5/ja
Application granted granted Critical
Publication of JP7153974B2 publication Critical patent/JP7153974B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Description

本発明は、コンピュータプログラム、学習モデルの生成方法、及び画像処理装置に関する。
腹腔や胸腔に到達するように身体に3mm~10mm程度の複数の小さな孔をあけて、身体を切開しないでその孔から内視鏡や手術器具を挿入して手術を行う内視鏡外科手術が行われている。内視鏡外科手術を実行する技術として、内視鏡が取得する映像をディスプレイで見ながら、医療用のマニピュレータで手術器具を操作して外科処置を行うことができる手術システムが提案されている(例えば、特許文献1を参照。)。
特表2013-531538公報
外科手術において、処置を行う上で対象臓器をその処置に適するような状態に展開することが重要である。しかしながら鏡視下手術では、臓器の全体像が把握しづらく、また、触覚が欠如しているため、臓器をどの方向にどれくらい牽引すると処置に最適な状態になるかという判断が難しい。
本発明はこのような背景を鑑みてなされたものであり、手術対象の状態を容易に把握することのできる技術を提供することを目的とする。
上記課題を解決するための本発明の主たる発明は、コンピュータに、鏡視下手術の術野を撮像して得られる術野画像を取得し、術野画像を入力した場合、温存臓器と切除臓器との間の結合組織に関する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織に関する情報を取得し、前記学習モデルから取得した情報に基づき、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報を出力する処理を実行させる。
本発明によれば、手術対象の状態を容易に把握することができる。
本実施形態の手術支援システムを用いた手術について説明する図である。 本実施の形態に係る手術支援システムの概略を説明する概念図である。 画像処理装置のハードウェア構成例を示す図である。 画像処理装置のソフトウェア構成例を示す図である。 本実施形態の手術支援システムにおける学習処理の流れを説明する図である。 本実施形態の手術支援システムにおけるスコアの出力処理の流れを説明する図である。 疎性結合組織の展開処置に係るスコアの表示例を示す図である。 疎性結合組織の展開処置に係るスコアの表示例を示す図である。 疎性結合組織の展開処置に係るスコアの表示例を示す図である。 血管の牽引に係るスコアの表示例を示す図である。 血管の牽引に係るスコアの表示例を示す図である。 血管の牽引に係るスコアの表示例を示す図である。 実施の形態2における術野画像の一例を示す模式図である。 学習モデルの構成例を示す模式図である。 学習モデルによる認識結果を示す模式図である。 学習モデルの生成手順を説明するフローチャートである。 実施の形態2における画像処理装置が運用フェーズにおいて実行する処理の手順を説明するフローチャートである。 実施の形態2における表示例を示す模式図である。 展開操作が必要な術野画像の一例を示す模式図である。 展開操作に関するナビゲーション情報の出力例を示す図である。 切断操作に関するナビゲーション情報の出力例を示す図である。 実施の形態3における画像処理装置が運用フェーズにおいて実行する処理の手順を説明するフローチャートである。 実施の形態4における学習モデルの構成を説明する模式図である。 実施の形態4における画像処理装置が運用フェーズにおいて実行する処理の手順を説明するフローチャートである。 実施の形態5における学習モデルの構成を説明する模式図である。 正解データの作成手順を説明する説明図である。 実施の形態5における画像処理装置が運用フェーズにおいて実行する処理の手順を説明するフローチャートである。 切断部位の表示例を示す模式図である。 実施の形態6における学習モデルの構成を説明する模式図である。 実施の形態6における画像処理装置が実行する処理の手順を説明するフローチャートである。 処理対象領域の状態を説明する説明図である。 処理対象領域の状態を説明する説明図である。 処理対象領域の状態を説明する説明図である。 実施の形態8における学習モデルを説明する説明図である。 実施の形態8における画像処理装置が実行する処理の手順を説明するフローチャートである。
<発明の概要>
本発明の実施形態の内容を列記して説明する。本発明は、たとえば、以下のような構成を備える。
[項目1]
手術を支援するシステムであって、
前記手術における解剖状態を表す情報を取得する解剖状態取得部と、
前記情報に基づいて前記解剖状態のスコアを決定するスコア算出部と、
前記スコアに基づく情報を出力するスコア出力部と、
を備える手術支援システム。
[項目2]
前記解剖状態は、複数の臓器の関係性を含む、項目1に記載の手術支援システム。
[項目3]
前記解剖状態は、手術対象に対する処置に適した状態である度合を示す、項目1または2に記載の手術支援システム。
[項目4]
前記情報は、少なくとも術野を撮影した画像を含む、項目1ないし3のいずれか1項に記載の手術支援システム。
[項目5]
前記画像は、可視画像、赤外線画像、および深度マップの少なくともいずれかを含む、項目4に記載の手術支援システム。
[項目6]
前記スコア算出部は、手術対象の面積の大きさに応じて前記スコアを決定する、項目1ないし5のいずれか1項に記載の手術支援システム。
[項目7]
前記スコア算出部は、手術対象の変形度合に応じて前記スコアを決定する、項目1ないし5のいずれか1項に記載の手術支援システム。
[項目8]
前記スコア算出部は、手術対象の色彩を含む情報に応じて前記スコアを決定する、項目1ないし5のいずれか1項に記載の手術支援システム。
[項目9]
前記スコア出力部は、前記スコアを手術モニター上に表示する、項目1ないし8のいずれか1項に記載の手術支援システム。
[項目10]
前記スコア出力部は、前記スコアに応じて前記処置に適するか否かを表示する、項目3に記載の手術支援システム。
[項目11]
前記スコア出力部は、前記スコアの変化量が所定値以上となった場合に前記スコアを出力する、項目1ないし10のいずれか1項に記載の手術支援システム。
[項目12]
手術対象の処置可能領域を示すマーカーを手術モニター上に重畳して表示する処置可能領域表示部をさらに備える、項目1ないし11のいずれか1項に記載の手術支援システム。
[項目13]
前記処置可能領域表示部は、前記マーカーにより前記スコアを表示する、項目12に記載の手術支援システム。
[項目14]
前記マーカーは、前記処置可能領域の略外縁を示す、項目12または13に記載の手術支援システム。
[項目15]
手術対象に対する処置は、少なくとも、切除、剥離、縫合、結紮またはステープリングのいずれかを含む、項目1ないし14のいずれか1項に記載の手術支援システム。
[項目16]
前記手術対象は、疎性結合組織である、項目3、6、7、8、12、13、14または15に記載の手術支援システム。
(実施の形態1)
<概要>
以下、本発明の一実施形態に係る手術支援システム1について説明する。本実施形態の手術支援システム1は、たとえば、鏡視下手術やロボット手術のように遠隔操作により行う手術を支援するものである。
図1は、本実施形態の手術支援システム1を用いた手術について説明する図である。図1に示すように、本実施形態では、温存臓器2を温存しつつ、切除臓器3を切除することを想定している。
図1に示すように、切除臓器3には固有脈管6が通っており、固有脈管6は結合組織4内に存在しているため、固有脈管6の処置を行うためには結合組織4を切開する必要がある。しかし、温存臓器2や切除臓器3、固有脈管6その他の生組織を傷つけないようにするには、結合組織4を伸長させた状態で切開することが好ましい一方で、伸長しすぎると結合組織4が接続されている温存臓器2その他の生組織に裂傷が生じることもあり得る。そこで、本実施形態の手術支援システム1では、事前に、結合組織4の伸長状態が切開等の処置を行うにどの程度適しているかについての医師等の判断の入力を受け付けて学習することで、画像から結合組織4の状態が処置に適した度合(結合組織4に対して安全に切除等の作業を行うことのできる度合)を示すスコアを算出可能としている。また、術中には、術野の画像からそのスコアを算出してモニタに表示することで、結合組織4の処置を行っている医師110(以下、オペレータ110ともいう)を支援しようとしている。なお、本実施形態では、処置として主に切除を想定するが、処置は、切除以外にも、剥離、縫合、クリッピング等の結紮、またはステープリングなどであってよい。
切除臓器3としては、たとえば、胃、大腸、食道、膵臓、肺、前立腺、卵巣などがある。切除臓器3が胃である場合、温存臓器2としては、たとえば、膵臓、横行結腸間膜などがある。切除臓器3が大腸である場合、温存臓器2としては、たとえば、尿管、精線動静脈、精嚢、骨盤神経叢などがある。切除臓器3が食道である場合、温存臓器2としては、たとえば、気管、反回神経などがある。切除臓器3が膵臓である場合、温存臓器2としては、たとえば、左腎静脈などがある。切除臓器3が肺である場合、温存臓器2としては、たとえば、反回神経、大動脈、食道などがある。切除臓器3が前立腺である場合、温存臓器2としては、たとえば、直腸がある。
温存臓器2と切除臓器3との間には結合組織4(疎性結合組織)が存在する。主要脈管5から固有脈管6を介して切除臓器3に血液が流れており、切除臓器3を切除するにあたり、固有脈管6の処置を行う必要があるところ、まずは結合組織4を切除して固有脈管6を暴露させて固有脈管6の処置を行いやすくする。ここで、温存臓器2が胃である場合、主要脈管5には、たとえば、肝動脈や腹腔動脈などがあり、固有脈管6には、たとえば、左胃動脈などがある。温存臓器2が大腸である場合、主要脈管5には、たとえば、門脈や大動脈などがあり、固有脈管6には、たとえば、回結腸動静脈や下腸間膜動脈などがある。温存臓器2が食道である場合、主要脈管5には、たとえば、大動脈がある。温存臓器2が膵臓である場合、主要脈管5には、たとえば、門脈や上腸間膜動脈などがあり、固有脈管6には、IPDAなどがある。温存臓器2が肺である場合、主要脈管5には、たとえば、気管、肺動脈、肺静脈などがあり、固有脈管6は、たとえば、主要脈管5固有分枝である。
本実施形態の手術支援システム1では、解剖状態を表す情報を取得し、その解剖状態が処置に適している度合(スコア)を決定し、スコアを出力する。解剖状態には、たとえば、複数臓器の関連性(たとえば、温存臓器2と切除臓器3との間の距離など)、臓器の状態(たとえば、温存臓器2および/または切除臓器3の状態)、複数の組織をつなぐ疎性結合組織4の状態(伸縮の状態や緊張状態など)などが含まれる。本実施形態では、一例として、切除臓器3を切除するにあたり、切除臓器3を温存臓器2から離間させるように引っ張り、裂傷しない程度に緊張していることで切除に適しているかどうかを判定する。解剖状態のスコアは、事前に経験豊富な医師により手術動画像から解剖状態のスコアが判断され、医師により判断された結果を機械学習の手法により学習させることができる。
<システム構成>
図2は、本実施の形態に係る手術支援システム1の概略を説明する概念図である。なお、図の構成は一例であり、これら以外の要素が含まれていてもよい。
手術支援システム1では、手術ユニット10に手術対象(患者100)が載置され、患者100の術野がカメラ21(たとえば、腹部に挿入される。)により撮影される。カメラ21が撮影した画像は制御ユニット22に渡され、制御ユニット22から出力される画像はメインモニタ23に表示される。本実施形態の手術支援システム1では、画像処理装置30が制御ユニット22から術野の画像を取得し、この画像を解析して解剖状態のスコアをサブモニタ31に出力する。
<ハードウェア>
画像処理装置30は、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、あるいはクラウド・コンピューティングによって論理的に実現されてもよい。また、画像処理装置30は、FPGA(Field Programmable Gate Array)などの論理回路であってもよい。図3は、画像処理装置30のハードウェア構成例を示す図である。画像処理装置30は、CPU301、メモリ302、記憶装置303、通信インタフェース304、入力装置305、出力装置306を備える。記憶装置303は、各種のデータやプログラムを記憶する、例えばハードディスクドライブやソリッドステートドライブ、フラッシュメモリなどである。通信インタフェース304は、通信ネットワークに接続するためのインタフェースであり、例えばイーサネット(登録商標)に接続するためのアダプタ、公衆電話回線網に接続するためのモデム、無線通信を行うための無線通信機、シリアル通信のためのUSB(Universal Serial Bus)コネクタやRS232Cコネクタなどである。入力装置305は、データを入力する、例えばキーボードやマウス、タッチパネル、非接触パネル、ボタン、マイクロフォンなどである。出力装置306は、データを出力する、例えばディスプレイやプリンタ、スピーカなどである。
<ソフトウェア>
図4は、画像処理装置30のソフトウェア構成例を示す図である。画像処理装置30は、映像取得部311、解剖状態取得部312、処置可能領域表示部313、学習処理部314、スコア算出部315、スコア出力部316、モデル記憶部331を備える。
なお、画像処理装置30は、映像取得部311、解剖状態取得部312、処置可能領域表示部313、学習処理部314、スコア算出部315、スコア出力部316は、画像処理装置30が備えるCPU301が記憶装置303に記憶されているプログラムをメモリ302に読み出して実行することにより実現することができ、モデル記憶部331は、画像処理装置30が備えるメモリ302および記憶装置303が備える記憶領域の一部として実現することができる。
映像取得部311は、カメラ21が撮影した術野の画像を取得する。本実施形態では、映像取得部311は、制御ユニット22から出力されるカメラ21の撮影した動画像を取得するものとする。
解剖状態取得部312は、術野における解剖状態を取得する。本実施形態では、解剖状態取得部312は、映像取得部311が取得した画像を解析して臓器や結合組織、血管などの生組織を認識し、たとえば、各生組織の特徴量を取得することができる。
処置可能領域表示部313は、事前に設定された処置の対象組織(本実施形態では結合組織を想定している。)を表す図形を出力する。処置可能領域表示部313は、たとえば、解剖状態取得部312が認識した生組織のうち、事前に設定された処置対象組織(たとえば結合組織)の色彩を変更したり、輪郭を抽出して画像に重畳表示したりすることができる。また、処置可能領域表示部313は、後述するスコア算出部315により算出されたスコアが閾値以上である場合にのみ処置対象組織を出力するようにすることもできる。
学習処理部314は、解剖状態に応じたスコアを学習する。学習処理部314は、たとえば、映像取得部311が取得した画像を閲覧した医師から処置対象組織の状態が処置に適している度合のスコア(たとえば、5点満点、10点満点、100点満点など任意の幅で設定することができる。)の入力を受け付け、入力されたスコアを教師信号とし、当該画像より解析された解剖状態(生組織の特徴量)を入力信号として、たとえばニューラルネットワークなどの機械学習手法を用いて学習を行うことができる。なお、入力信号として与える特徴量は、処置対象組織のものに限らず、たとえば、温存臓器2や切除臓器3、主要脈管5、固有脈管6などのものを採用するようにしてもよい。すなわち、たとえば、温存臓器2と切除臓器3との位置関係などを含めて、スコアを学習することができる。学習処理部314は、学習されたモデルをモデル記憶部331に登録する。モデル記憶部331は、公知の形式によりモデルを格納するものとして、ここでは詳細な説明は省略する。
スコア算出部315は、映像取得部311が取得した画像に基づいて、処置対象領域が処置に適している度合を示すスコアを算出する。スコア算出部315は、解剖状態取得部312が取得した各生組織の情報(特徴量)を、モデル記憶部331に記憶されているモデルに与えることによりスコアを算出することができる。
スコア出力部316は、スコア算出部315が算出したスコアを出力する。本実施形態では、スコア出力部316は、サブモニタ31においてカメラ21が撮影した術野の画像に重畳させてスコアを表示する。スコア出力部316は、スコアを数字などの文字情報としてサブモニタ31に出力するようにしてもよいし、サブモニタ31においてスコアを示すゲージを処置対象の近傍に出力するようにしてもよいし、スコアに応じて処置可能領域表示部313が表示した図形の色彩を変更するようにしてもよい。また、スコア出力部316は、スピーカからスコアを表す音(たとえば、スコアを音声合成により読み上げた音声であってもよいし、スコアに応じたサウンドとしてもよい。)を出力するようにしてもよい。
<学習処理>
図5は、本実施形態の手術支援システム1における学習処理の流れを説明する図である。図5に示す学習処理は、たとえば、事前に撮影された術野の画像を用いて行うようにしてもよいし、撮影中の画像を用いて行うようにしてもよい。
映像取得部311は、カメラ21が撮影した術野の画像(リアルタイムに撮影している画像であってもよいし、記録されていた画像であってもよい。)を取得する(S401)。解剖状態取得部312は、画像から温存臓器2、切除臓器3、結合組織4などの生組織を認識し(S402)、学習処理部314は、医師等から処置対象組織(本実施形態では結合組織4)の処置適合度を示すスコアの入力を受け付け(S403)、解剖状態取得部312が取得した解剖状態を示す情報(特徴量など)を入力信号とし、受け付けたスコアを教師信号として学習を行い(S404)、学習済みのモデルをモデル記憶部331に登録する(S405)。
以上のようにして、術野を撮影した画像に基づいて、画像に表示されている温存臓器2、切除臓器3、結合組織4などの各生組織の状態から結合組織4の処置適合度(スコア)を学習することができる。
<学習処理>
図6は、本実施形態の手術支援システム1におけるスコアの出力処理の流れを説明する図である。図6に示すスコアの出力処理は、手術中に撮影されている画像に基づいて行うことを想定する。
映像取得部311は、カメラ21が撮影した術野の画像を制御ユニット22から取得する(S421)。解剖状態取得部312は、画像から温存臓器2、切除臓器3、結合組織4などの生組織を認識し(S422)、スコア算出部315は、認識した組織の特徴量を、モデル記憶部331に記憶されているモデルに与えてスコアを算出する(S423)。スコア出力部316は、算出されたスコアをサブモニタ31において術野の画像に重畳表示させる(S424)。
以上のようにして、手術中に撮影された術野の画像に基づいて、処置対象(結合組織4)の処置適合度をサブモニタ31に出力することができる。
図7ないし図9は、疎性結合組織の展開処置に係るスコアの表示例を示す図である。図7ないし図9では、結合組織4として疎性結合組織の場合の例を示している。サブモニタ31には、温存臓器2と切除臓器3とその間の結合組織4(温存臓器2および切除臓器3に隠されていない場合)とが表示されている。また、サブモニタ31では、結合組織4が処置に適した度合を示すスコアが、処置対象である結合組織4の近傍にゲージ51および文字表示52の形式で表示されている。
図7ないし図9の例では、オペレータ110は手術器具50を遠隔操作して切除臓器3を把持して画面上部へ引き上げている様子が表示されている。図7、図8、図9の順に切除臓器3が引き上げられており、これらの中では図9の状態が処置に最も適合していることがわかる。図7のように温存臓器2から切除臓器3があまり引き離されていない状態では、スコア(処置適合度)は10%であることが示されており、図8では、切除臓器3が引き上げられてスコアが55%であることが示されている。図9の状態では、切除臓器3がさらに引き上げられて処置の適合度を示すスコアが98%と示されている。このスコアを参考にしながら、手術のオペレータ110(医師)は、切除臓器3の引き上げ作業や結合組織4の切除作業などの処置を行うことができる。切除臓器3と温存臓器2とが引き離され、疎性結合組織が露出するとともに十分に引き伸ばされて緊張した状態であれば、疎性結合組織を安全に切除できることが知られており、このような切除の安全性をゲージ51および文字表示52により視認することができるので、結合組織4を安全に処置することができる。
また、図8および図9に図示されているように、処置可能領域表示部313は、結合組織4を表す図形をサブモニタ31に表示される画像に重畳表示することができる。したがって、手術のオペレータ110は処置対象を即時かつ容易に認識することができる。
なお、スコアはゲージ51または文字表示52の何れか一方のみで表示してもよいし、処置可能領域表示部313が表示している結合組織4を示す図形の色により表現してもよい。たとえば、スコアが第1閾値以上である場合には青色または緑色とし、スコアが第2閾値(第1閾値よりも小さい)以下である場合には赤色とし、スコアが第1閾値未満で第2閾値より大きい場合には黄色とすることができる。また、スコアに応じた色のグラデーションとしてもよい。
図7ないし図9では、結合組織4として疎性結合組織の例を示したが、結合組織4は疎性結合組織に限らず、2つの臓器を結合している組織であればよい。たとえば、密性結合組織も結合組織4であり、血管も結合組織4として把握できる。また、上記実施形態では結合組織4は切除することを想定していたが、結合組織4に対する処置であれば切除に限らない。たとえば、血管4については、クリップ、切除、縫合などの処置を想定することができる。
図10ないし図12は、血管の牽引に係るスコア表示例を示す図である。サブモニタ31には、温存臓器2と切除臓器3とその間を通っている血管4とが表示され、血管4が処置に適した度合を示すスコアが、血管(または温存臓器2もしくは切除臓器3)の近傍にゲージ51および文字表示52の形式で表示されている。また、図10ないし図12の例では、手術器具50により切除臓器3ではなく結合組織4(血管)を引き伸ばしている。図10、図11、図12の順に血管4が引き伸ばされていることがわかる。これらの中では図12の状態が最も処置に適合した状態であることが把握できる。このように、血管4であっても、その処置適合度を表示することにより、安全な処置を行うことができる。
以上説明したように、本実施形態の手術支援システム1によれば、術野を撮影した画像に基づいて処置対象の臓器などが処置に適した状態、すなわち、安全な処置ができる状態であるか否かをスコアによって表示することができる。したがって、処置対象の手術を安全に行うことができる。
以下では、学習モデルを用いて、温存臓器2と切除臓器3との間の結合組織4に関する情報を取得し、取得した情報に基づき、温存臓器2と切除臓器3との間の結合組織4を処理する際のナビゲーション情報を出力する構成について説明する。以下の実施の形態では、結合組織4として主に疎性結合組織を例に挙げて説明するが、結合組織4は、温存臓器2と切除臓器3との間にある膜や層、脂肪組織などを含んでもよい。
(実施の形態2)
実施の形態2では、学習モデルを用いて温存臓器2と切除臓器3との間の疎性結合組織を認識し、認識結果に基づき、疎性結合組織の切断タイミングをナビゲーション情報として出力する構成について説明する。
図13は実施の形態2における術野画像の一例を示す模式図である。図13に示す術野には、温存臓器2を構成する組織ORG、切除臓器3を構成する組織NG、及びこれらの組織を結合する疎性結合組織LCTが含まれている。疎性結合組織LCTは、結合組織4の一例である。図13の例では、疎性結合組織LCTを破線により示している。
腹腔鏡手術では、例えば患者の体内に形成された悪性腫瘍などの病変部を取り除く手術を行う。このとき、術者は、病変部を含む組織NGを鉗子50Aにより把持し、適宜の方向に展開させることによって、病変部を含む組織NGと残すべき組織ORGとの間に存在する疎性結合組織LCTを露出させる。術者は、露出させた疎性結合組織LCTをエネルギ処置具50Bを用いて切除することにより、病変部を含む組織NGを残すべき組織ORGから剥離させる。鉗子50Aやエネルギ処置具50Bは手術器具50の一例である。
なお、疎性結合組織LCTの切除の容易性の観点から、切除対象の疎性結合組織LCTは伸縮性を有していることが好ましい。また、切除対象の疎性結合組織LCTの奥側に鉗子50Aやエネルギ処置具50Bを動かせる空間が存在することが好ましい。更に、切除対象の疎性結合組織LCTは緊張した状態に保持されていることが好ましい。図13の例は、疎性結合組織LCTの奥側に空間SPが存在し、少なくとも一部が緊張された状態に保持されている様子を示している。
疎性結合組織LCTを構成する線維の周囲には液性の基質や多種の細胞が存在するため、術者にとって、術野画像から疎性結合組織LCTを見つけ出すことは必ずしも容易ではない。そこで、本実施の形態に係る画像処理装置30は、学習モデル410(図14を参照)を用いて術野画像から疎性結合組織部分を認識し、認識結果に基づき、腹腔鏡手術に関する支援情報を出力する。
次に、画像処理装置30において用いられる学習モデル410の構成例について説明する。
図14は学習モデル410の構成例を示す模式図である。学習モデル410は、画像セグメンテーションを行うための学習モデルであり、例えばSegNetなどの畳み込み層を備えたニューラルネットワークにより構築される。図14には、SegNetの構成例を示しているが、SegNetに限らず、FCN(Fully Convolutional Network)、U-Net(U-Shaped Network)、PSPNet(Pyramid Scene Parsing Network)など、画像セグメンテーションが行える任意のニューラルネットワークを用いて学習モデル410を構築すればよい。また、画像セグメンテーション用のニューラルネットワークに代えて、YOLO(You Only Look Once)、SSD(Single Shot Multi-Box Detector)など物体検出用のニューラルネットワークを用いて学習モデル410を構築してもよい。
本実施の形態において、学習モデル410への入力画像は、カメラ21から得られる術野画像である。術野画像は、動画に限らず、静止画であってもよい。また、学習モデル410に入力する術野画像は、カメラ21から得られる生の画像である必要はなく、適宜の画像処理を加えた画像や画像の周波数成分を示すデータなどであってもよい。学習モデル410は、術野画像の入力に対し、術野画像に含まれる疎性結合組織部分の認識結果を示す画像を出力するように学習される。
本実施の形態における学習モデル410は、例えば、エンコーダ411、デコーダ412、及びソフトマックス層413を備える。エンコーダ411は、畳み込み層とプーリング層とを交互に配置して構成される。畳み込み層は2~3層に多層化されている。図14の例では、畳み込み層にはハッチングを付さずに示し、プーリング層にはハッチングを付して示している。
畳み込み層では、入力されるデータと、それぞれにおいて定められたサイズ(例えば、3×3や5×5など)のフィルタとの畳み込み演算を行う。すなわち、フィルタの各要素に対応する位置に入力された入力値と、フィルタに予め設定された重み係数とを各要素毎に乗算し、これら要素毎の乗算値の線形和を算出する。算出した線形和に、設定されたバイアスを加算することによって、畳み込み層における出力が得られる。なお、畳み込み演算の結果は活性化関数によって変換されてもよい。活性化関数として、例えばReLU(Rectified Linear Unit)を用いることができる。畳み込み層の出力は、入力データの特徴を抽出した特徴マップを表している。
プーリング層では、入力側に接続された上位層である畳み込み層から出力された特徴マップの局所的な統計量を算出する。具体的には、上位層の位置に対応する所定サイズ(例えば、2×2、3×3)のウインドウを設定し、ウインドウ内の入力値から局所の統計量を算出する。統計量としては、例えば最大値を採用できる。プーリング層から出力される特徴マップのサイズは、ウインドウのサイズに応じて縮小(ダウンサンプリング)される。図14の例は、エンコーダ411において畳み込み層における演算とプーリング層における演算とを順次繰り返すことによって、224画素×224画素の入力画像を、112×112、56×56、28×28、…、1×1の特徴マップに順次ダウンサンプリングしていることを示している。
エンコーダ411の出力(図14の例では1×1の特徴マップ)は、デコーダ412に入力される。デコーダ412は、逆畳み込み層と逆プーリング層とを交互に配置して構成される。逆畳み込み層は2~3層に多層化されている。図14の例では、逆畳み込み層にはハッチングを付さずに示し、逆プーリング層にはハッチングを付して示している。
逆畳み込み層では、入力された特徴マップに対して、逆畳み込み演算を行う。逆畳み込み演算とは、入力された特徴マップが特定のフィルタを用いて畳み込み演算された結果であるという推定の下、畳み込み演算される前の特徴マップを復元する演算である。この演算では、特定のフィルタを行列で表したとき、この行列に対する転置行列と、入力された特徴マップとの積を算出することで、出力用の特徴マップを生成する。なお、逆畳み込み層の演算結果は、上述したReLUなどの活性化関数によって変換されてもよい。
デコーダ412が備える逆プーリング層は、エンコーダ411が備えるプーリング層に1対1で個別に対応付けられており、対応付けられている対は実質的に同一のサイズを有する。逆プーリング層は、エンコーダ411のプーリング層においてダウンサンプリングされた特徴マップのサイズを再び拡大(アップサンプリング)する。図14の例は、デコーダ412において畳み込み層における演算とプーリング層における演算とを順次繰り返すことによって、1×1、7×7、14×14、…、224×224の特徴マップに順次アップサンプリングしていることを示している。
デコーダ412の出力(図14の例では224×224の特徴マップ)は、ソフトマックス層413に入力される。ソフトマックス層413は、入力側に接続された逆畳み込み層からの入力値にソフトマックス関数を適用することにより、各位置(画素)における部位を識別するラベルの確率を出力する。本実施の形態では、疎性結合組織を識別するラベルを設定し、疎性結合組織に属するか否かを画素単位で識別すればよい。ソフトマックス層413から出力されるラベルの確率が閾値以上(例えば50%以上)の画素を抽出することによって、疎性結合組織部分の認識結果を示す画像(以下、認識画像という)が得られる。
なお、図14の例では、224画素×224画素の画像を学習モデル410への入力画像としているが、入力画像のサイズは上記に限定されるものではなく、画像処理装置30の処理能力、カメラ21から得られる術野画像のサイズ等に応じて、適宜設定することが可能である。また、学習モデル410への入力画像は、カメラ21より得られる術野画像の全体である必要はなく、術野画像の注目領域を切り出して生成される部分画像であってもよい。処置対象を含むような注目領域は術野画像の中央付近に位置することが多いので、例えば、元の半分程度のサイズとなるように術野画像の中央付近を矩形状に切り出した部分画像を用いてもよい。学習モデル410に入力する画像のサイズを小さくすることにより、処理速度を上げつつ、認識精度を高めることができる。
図15は学習モデル410による認識結果を示す模式図である。図15の例では、学習モデル410を用いて認識した疎性結合組織部分を太実線により示し、それ以外の臓器や組織の部分を参考として破線により示している。画像処理装置30のCPU301は、認識した疎性結合組織部分を判別可能に表示するために疎性結合組織の認識画像を生成する。認識画像は、術野画像と同一サイズの画像であり、疎性結合組織として認識された画素に特定の色を割り当てた画像である。疎性結合組織の画素に割り当てる色は、臓器や血管などと区別が付くように、人体内部に存在しない色であることが好ましい。人体内部に存在しない色とは、例えば青色や水色などの寒色系(青系)の色である。また、認識画像を構成する各画素には透過度を表す情報が付加され、疎性結合組織として認識された画素には不透過の値、それ以外の画素は透過の値が設定される。このように生成された認識画像を術野画像上に重ねて表示することにより、疎性結合組織部分を特定の色を有する構造として術野画像上に表示することができる。
画像処理装置30は、例えば運用開始前の学習フェーズにおいて学習モデル410を生成する。学習モデル410を生成する準備段階として、本実施の形態では、カメラ21から得られる術野画像に対して、疎性結合組織部分をマニュアルでセグメンテーションすることにより、アノテーションを実施する。なお、アノテーションには、記憶装置303などに記憶された術野画像を用いればよい。
アノテーションを実施する際、作業者(医師などの専門家)は、術野画像をサブモニタ31に時系列的に表示させながら、温存臓器と切除臓器との間に存在し、切除し易い状況にある疎性結合組織を見つけ出す。具体的には、病変部を含む組織が展開されて、露出した状態の疎性結合組織を見つけ出す。露出した疎性結合組織は、伸縮性を有し、緊張した状態に保持されていることが好ましい。また、疎性結合組織の奥側に空間が存在し、手術器具50を動かせる空間が存在することが好ましい。作業者は、切除し易い状況にある疎性結合組織を見つけ出した場合、その術野画像において、入力装置305が備えるマウスやスタイラスペンなどを用いて疎性結合組織に該当する部分を画素単位で選択することによりアノテーションを行う。また、学習に適した疎性結合組織の走行パターンを選択し、透視変換や鏡映などの処理によりデータ数を増やしてもよい。更に、学習が進めば、学習モデル410による認識結果を流用してデータ数を増やしてもよい。
多数の術野画像に対してアノテーションが行われることにより、術野画像と当該術野画像における疎性結合組織部分を示す正解データとの組からなる訓練データが用意される。訓練データは、記憶装置(例えば画像処理装置30の記憶装置303)に記憶される。
図16は学習モデル410の生成手順を説明するフローチャートである。画像処理装置30のCPU301は、予め用意してある学習プログラムを記憶装置303から読み出し、以下の手順を実行することにより、学習モデル410を生成する。なお、学習を開始する前の段階では、学習モデル410を記述する定義情報には、初期値が与えられているものとする。
CPU301は、記憶装置303にアクセスし、学習に用いる一組の訓練データを選択する(ステップS201)。CPU301は、選択した訓練データに含まれる術野画像を学習モデル410へ入力し(ステップS202)、学習モデル410による演算を実行する(ステップS203)。すなわち、CPU301は、入力した術野画像から特徴マップを生成し、生成した特徴マップを順次ダウンサンプリングするエンコーダ411による演算、エンコーダ411から入力される特徴マップを順次アップサンプリングするデコーダ412による演算、及びデコーダ412より最終的に得られる特徴マップの各画素を識別するソフトマックス層413による演算を実行する。
CPU301は、学習モデル410から演算結果を取得し、取得した演算結果を評価する(ステップS204)。例えば、CPU301は、演算結果として得られる疎性結合組織部分の画像データと、訓練データに含まれる正解データとの類似度を算出することによって、演算結果を評価すればよい。類似度は、例えばJaccard係数により算出される。Jaccard係数は、学習モデル410によって抽出した疎性結合組織部分をA、正解データに含まれる疎性結合組織部分をBとしたとき、A∩B/A∪B×100(%)により与えられる。Jaccard係数に代えて、Dice係数やSimpson係数を算出してもよく、その他の既存の手法を用いて類似度を算出してもよい。
CPU301は、演算結果の評価に基づき、学習が完了したか否かを判断する(ステップS205)。CPU301は、予め設定した閾値以上の類似度が得られた場合に、学習が完了したと判断することができる。
学習が完了していないと判断した場合(S205:NO)、CPU301は、逆誤差伝搬法を用いて、学習モデル410の各層における重み係数及びバイアスを学習モデル410の出力側から入力側に向かって順次的に更新する(ステップS206)。CPU301は、各層の重み係数及びバイアスを更新した後、処理をステップS201へ戻し、ステップS201からステップS205までの処理を再度実行する。
ステップS205において学習が完了したと判断した場合(S205:YES)、学習済みの学習モデル410が得られるので、CPU301は、得られた学習モデル410をモデル記憶部331に記憶させ、本フローチャートによる処理を終了する。
本実施の形態では、画像処理装置30にて学習モデル410を生成する構成としたが、サーバ装置などの外部コンピュータにて学習モデル410を生成してもよい。画像処理装置30は、外部コンピュータにて生成された学習モデル410を通信等の手段を用いて取得し、取得した学習モデル410をモデル記憶部331に記憶させればよい。
画像処理装置30は、学習済みの学習モデル410が得られた後の運用フェーズにおいて、以下の処理を実行する。図17は実施の形態2における画像処理装置30が運用フェーズにおいて実行する処理の手順を説明するフローチャートである。画像処理装置30のCPU301は、予め用意してある認識処理プログラムを記憶装置303から読み出して実行することにより、以下の手順を実行する。腹腔鏡手術が開始されると、術野を撮像して得られる術野画像はカメラ21より制御ユニット22へ随時出力される。画像処理装置30のCPU301は、映像取得部311を通じて、制御ユニット22から出力される術野画像を取得する(ステップS221)。CPU301は、術野画像を取得する都度、以下の処理を実行する。
CPU301は、取得した術野画像を学習モデル410に入力し、学習モデル410を用いた演算を実行し(ステップS222)、術野画像に含まれる疎性結合組織部分を認識する(ステップS223)。すなわち、CPU301は、入力された術野画像から特徴マップを生成し、生成した特徴マップを順次ダウンサンプリングするエンコーダ411による演算、エンコーダ411から入力された特徴マップを順次アップサンプリングするデコーダ412による演算、及びデコーダ412より最終的に得られる特徴マップの各画素を識別するソフトマックス層413による演算を実行する。また、CPU301は、ソフトマックス層413から出力されるラベルの確率が閾値以上(例えば50%以上)の画素を疎性結合組織部分として認識する。
次いで、CPU301は、学習モデル410による認識結果に基づき、疎性結合組織部分の露出面積を算出する(ステップS224)。CPU301は、疎性結合組織と認識された画素の数、または、術野画像の全画素の中で疎性結合組織と認識された画素の割合を露出面積として算出すればよい。また、CPU301は、1画素当たりの大きさ(面積)を規格化するために、例えば、カメラ21の焦点距離などを参照して合焦点までの距離情報を導出し、導出した距離情報に基づいて露出面積を補正してもよい。
次いで、CPU301は、算出した露出面積に基づき、疎性結合組織の切断タイミングであるか否かを判断する(ステップS225)。具体的には、CPU301は、算出した露出面積と、予め設定した閾値との大小関係を判断し、露出面積が閾値より大きければ切断タイミングであると判断すればよい。切断タイミングでないと判断した場合(S225:NO)、CPU301は、本フローチャートによる処理を終了する。
切断タイミングであると判断した場合(S225:YES)、CPU301は、疎性結合組織の切断タイミングである旨を報知する(ステップS226)。例えば、CPU301は、疎性結合組織の切断タイミングである旨の文字情報を、術野画像に重畳して表示することが可能である。文字情報を表示する構成に代えて、疎性結合組織の切断タイミングであることを示すアイコンやマークを術野画像に重畳表示してもよい。更に、CPU301は、出力装置306が備えるマイクロフォンを通じて、切断タイミングである旨を音声として出力してもよく、腹腔鏡や手術器具にバイブレータが搭載されている場合、このバイブレータを振動させることにより切断タイミングを報知してもよい。
また、CPU301は、ステップS223で疎性結合組織を認識しているので、その認識画像を生成し、生成した認識画像を術野画像上に重畳して表示してもよい。例えば、CPU301は、疎性結合組織として認識された画素には、人体内部に存在しない色(例えば青色や水色などの寒色系(青系)の色)を割り当て、疎性結合組織以外の画素には背景が透過するような透過度を設定することにより、認識画像を生成することができる。更に、CPU301は、ステップS224で疎性結合組織の露出面積を算出しているので、その露出面積の多少を示すインジケータの画像を生成し、生成したインジケータの画像を術野画像上に重畳して表示してもよい。
図18は実施の形態2における表示例を示す模式図である。図18は図13に示す術野画像に対し、疎性結合組織の認識画像53、疎性結合組織の切断タイミングを示す文字情報54、及び疎性結合組織の露出面積の多少を示すインジケータ55を重畳して表示した例を示している。画像処理装置30は、これらの情報を常に表示しておく必要はなく、入力装置305や図に示していないフットスイッチを通じて、術者からの表示指示が与えられた場合にのみ表示する構成としてもよい。
以上のように、実施の形態2では、学習モデル410を用いて術野画像に含まれる疎性結合組織部分を認識し、認識結果に基づき、疎性結合組織の切断タイミングであることを示す情報を出力する。画像処理装置30は、このようなナビゲーション情報を出力することにより、温存臓器2を構成する組織ORGと、切除臓器3を構成する組織NGとの間の疎性結合組織を切断する処理に関して、術者に対する視覚支援を行うことができる。
実施の形態2では、疎性結合組織の露出面積に応じて、切断タイミングであるか否かを判断する構成としたが、学習モデル410を用いて緊張状態にある疎性結合組織を認識し、認識結果に応じて切断の適否を判断してもよい。例えば、緊張状態にある疎性結合組織部分を画素単位で選択することによりアノテーションを行い、このようなアノテーションにより得られる訓練データを用いることより、緊張状態にある疎性結合組織を認識する学習モデル410を生成することができる。画像処理装置30のCPU301は、カメラ21により撮像された術野画像を学習モデル410に入力し、学習モデル410を用いた演算を実行することにより、緊張状態にある疎性結合を認識することができる。CPU301は、学習モデル410を用いて緊張状態にある疎性結合組織を認識した場合、切断タイミングであることを示す文字情報等を報知すればよい。
実施の形態2における画像処理装置30は、学習モデル410を備える構成としたが、後述する学習モデル420~450を更に備える構成であってもよい。すなわち、画像処理装置30は、複数の学習モデルを組み合わせて使用して、ナビゲーション情報を生成する構成としてもよい。
(実施の形態3)
実施の形態3では、学習モデル410を用いて温存臓器2と切除臓器3との間の疎性結合組織を認識し、認識結果に基づき、疎性結合組織を処理する際の操作に関する情報をナビゲーション情報として出力する構成について説明する。
画像処理装置30は、術野画像を学習モデル410に入力し、学習モデル410による演算を実行することによって、術野画像に含まれる疎性結合組織部分を認識することができる。実施の形態3における画像処理装置30は、学習モデル410による認識結果を参照して、疎性結合組織を展開又は切断する際の手術器具50の操作方向を決定し、決定した操作方向に関する情報を出力する。
図19は展開操作が必要な術野画像の一例を示す模式図である。図19は疎性結合組織が十分に展開されていない状態の術野画像を示している。画像処理装置30は、この術野画像を学習モデル410に入力し、学習モデル410による演算を実行することによって、切除臓器3の縁端部から露出し始めている疎性結合組織LCTの存在を認識することができる。しかしながら、インジケータ55に示されているように、疎性結合組織LCTは十分な露出面積を有していないので、切断するには疎性結合組織LCTを更に展開する必要があることが分かる。
画像処理装置30は、疎性結合組織LCTが延びている方向から、疎性結合組織LCTの展開方向を判断する。例えば、図19の例において、画像処理装置30は、学習モデル410の認識結果から、疎性結合組織LCTが図の上下方向へ延びていることを推定できる。この疎性結合組織LCTの上側には切除臓器3が存在しており、下側には温存臓器2が存在しているので、鉗子50Aにより切除臓器3を上方へ牽引すれば、若しくは、鉗子50Aにより温存臓器2を下方へ牽引すれば、疎性結合組織LCTを展開することができる。画像処理装置30は、疎性結合組織LCTの展開方向をナビゲーション情報として出力する。図20は展開操作に関するナビゲーション情報の出力例を示す図である。図20は、矢印のマークM1により、疎性結合組織LCTの展開方向(すなわち、鉗子50Aの操作方向)を示している。
一方、疎性結合組織LCTが十分に展開されている場合、画像処理装置30は、疎性結合組織LCTの切断方向をナビゲーション情報として出力する。例えば、図13や図18に示した例において、画像処理装置30は、学習モデル410の認識結果から、疎性結合組織LCTが上下方向に十分に展開されていると推定できるので、疎性結合組織LCTを切断する方向は図の左右方向であると判断する。画像処理装置30は、疎性結合組織LCTの切断方向をナビゲーション情報として出力する。図21は切断操作に関するナビゲーション情報の出力例を示す図である。図21は、矢印のマークM2により、疎性結合組織LCTの切断方向(すなわち、エネルギ処置具50Bの操作方向)を示している。
図20及び図21では、展開方向及び切断方向を強調するために、マークM1,M2を比較的大きく表示した。しかしながら、これらのマークM1,M2によって術野の一部が隠れた場合、手術が困難となる場合があるので、マークM1,M2の表示態様(大きさ、色、表示タイミング等)は、術者が視野を確保できるように設定されるとよい。また、矢印のマークM1,M2に限らず、実線または破線などにより、展開方向及び切断方向を示してもよい。また、本実施の形態では、術野画像に重畳してマークM1,M2を表示する構成としたが、別画像として表示してもよく、別モニタに表示してもよい。更に、CPU301は、出力装置306が備えるマイクロフォンを通じて音声により展開方向及び切断方向を報知してもよく、手術器具にバイブレータが搭載されている場合、このバイブレータを振動させることにより切断タイミングを報知してもよい。
図22は実施の形態3における画像処理装置30が運用フェーズにおいて実行する処理の手順を説明するフローチャートである。画像処理装置30のCPU301は、術野画像を取得する都度、以下の処理を実行する。CPU301は、実施の形態2と同様の手順により、取得した術野画像を学習モデル410に入力し、学習モデル410による演算を実行することにより、疎性結合組織部分を認識し、認識した疎性結合組織部分の露出面積を算出する(ステップS301~S304)。
CPU301は、学習モデル410による認識結果に基づき、疎性結合組織の展開が必要であるか否かを判断する(ステップS305)。例えば、CPU301は、ステップS304で算出した露出面積と第1閾値とを比較し、算出した露出面積が第1閾値未満であれば、疎性結合組織の展開が必要であると判断する。ここで、第1閾値は、事前に設定され、記憶装置303に記憶される。また、CPU301は、術野画像を入力した場合、疎性結合組織の展開の要否に関する情報を出力するよう学習された学習モデルを用いて、疎性結合組織の展開が必要であるか否かを判断してもよい。
疎性結合組織の展開が必要であると判断した場合(S305:YES)、CPU301は、疎性結合組織の展開方向を特定する(ステップS306)。例えば、CPU301は、温存臓器2と切除臓器3との間の疎性結合組織が延びる方向を推定し、推定した方向を疎性結合組織の展開方向として特定すればよい。
疎性結合組織の展開が必要でないと判断した場合(S305:NO)、CPU301は、疎性結合組織の切断が可能か否かを判断する(ステップS307)。例えば、CPU301は、ステップS304で算出した露出面積と第2閾値とを比較し、算出した露出面積が第2閾値以上であれば、疎性結合組織の切断が可能であると判断する。ここで、第2閾値は、第1閾値よりも大きな値に設定され、記憶装置303に記憶される。疎性結合組織の切断が可能でないと判断した場合(S307:NO)、CPU301は、本フローチャートによる処理を終了する。
疎性結合組織の切断が可能であると判断した場合(S307:YES)、CPU301は、疎性結合組織の切断方向を特定する(ステップS308)。例えば、CPU301は、温存臓器2と切除臓器3との間の疎性結合組織が延びる方向を推定し、推定した方向と交差する方向を疎性結合組織の切断方向として特定すればよい。
次いで、CPU301は、温存臓器2と切除臓器3との間の結合組織を処理する際のナビゲーション情報を出力する(ステップS309)。例えば、CPU301は、ステップS306で疎性結合組織の展開方向を特定した場合、展開方向を示すマークM1を術野画像に重畳して表示することにより、ナビゲーション情報を出力する。また、CPU301は、ステップS308で疎性結合組織の切断方向を特定した場合、切断方向を示すマークM2を術野画像に重畳して表示することにより、ナビゲーション情報を出力する。
以上のように、実施の形態3では、疎性結合組織の展開方向や切断方向をナビゲーション情報として術者に提示することができる。
(実施の形態4)
実施の形態4では、疎性結合組織の切断タイミングを学習する構成について説明する。
図23は実施の形態4における学習モデル420の構成を説明する模式図である。学習モデル420は、CNN(Convolutional Neural Networks)、R-CNN(Region-based CNN)などによる学習モデルであり、入力層421、中間層422、及び出力層423を備える。学習モデル420は、術野画像の入力に対して、疎性結合組織の切断タイミングに関する情報を出力するように学習される。学習モデル420は、画像処理装置30若しくは画像処理装置30と通信可能に接続される外部サーバによって生成され、画像処理装置30のモデル記憶部331に記憶される。
なお、学習モデル420に入力される術野画像は、動画に限らず、静止画であってもよい。また、学習モデル420に入力される術野画像は、カメラ21から得られる生の画像である必要はなく、適宜の画像処理を加えた画像や画像の周波数成分を示すデータなどであってもよい。
入力層421には、術野画像が入力される。中間層422は、畳み込み層、プーリング層、及び全結合層などを備える。畳み込み層及びプーリング層は交互に複数設けられてもよい。畳み込み層及びプーリング層は、各層のノードを用いた演算によって術野画像の特徴部分を抽出する。全結合層は、畳み込み層及びプーリング層によって特徴部分が抽出されたデータを1つのノードに結合し、活性化関数によって変換された特徴変数を出力する。特徴変数は、全結合層を通じて出力層へ出力される。
出力層423は、1つ又は複数のノードを備える。出力層423は、中間層422の全結合層から入力される特徴変数を基に、ソフトマックス関数を用いて確率に変換し、変換後の確率を各ノードから出力する。本実施の形態では、出力層423のノードから、現時点が疎性結合組織の切断タイミングであるか否かを示す確率を出力すればよい。
学習モデル420は、術野画像と、この術野画像に含まれる疎性結合組織が切断タイミングであるか否かを示すデータとの組を訓練データに用いて、CNNやR-CNNなどの適宜の学習アルゴリズムを用いた学習を実行することによって生成される。
図24は実施の形態4における画像処理装置30が運用フェーズにおいて実行する処理の手順を説明するフローチャートである。画像処理装置30のCPU301は、カメラ21により撮像された術野画像を取得した場合(ステップS451)、取得した術野画像を学習モデル420に入力して、学習モデル420による演算を実行する(ステップS452)。学習モデル420を用いた演算を実行することにより、出力層423からは、現時点が疎性結合組織の切断タイミングであるか否かを示す確率が得られる。
CPU301は、学習モデル420の出力層423から得られる確率に基づき、現時点が疎性結合組織の切断タイミングであるか否かを判断する(ステップS453)。例えば、CPU301は、学習モデル420の出力層423が出力された確率が閾値(例えば50%)を超える場合、現時点が疎性結合組織の切断タイミングであると判断し、閾値以下の場合、切断タイミングでないと判断する。切断タイミングでないと判断した場合(S453:NO)、CPU301は、本フローチャートによる処理を終了する。
切断タイミングであると判断した場合(S453:YES)、CPU301は、疎性結合組織の切断タイミングである旨を報知する(ステップS454)。切断タイミングを報知する手法は、実施の形態2と同様であり、文字情報、アイコン、マークなどを術野画像に重畳して表示してもよく、音声や振動により報知してもよい。
以上のように、実施の形態4では、学習モデル420を用いて疎性結合組織の切断タイミングを判断し、ナビゲーション情報を出力することにより、温存臓器2を構成する組織ORGと、切除臓器3を構成する組織NGとの間の疎性結合組織を切断する処理に関して、術者に対する視覚支援を行うことができる。
(実施の形態5)
実施の形態5では、疎性結合組織の切断部位に関する情報を出力する構成について説明する。
図25は実施の形態5における学習モデル430の構成を説明する模式図である。学習モデル430は、SegNet、FCN、U-Net、PSPNet、YOLO、SSDなどの画像セグメンテーション用又物体検出用のニューラルネットワークによる学習モデルであり、例えば、エンコーダ431、デコーダ432、及びソフトマックス層433を備える。学習モデル430の構成は、実施の形態2における学習モデル410の構成と同様であるため、その説明を省略することとする。
本実施の形態において、学習モデル430への入力画像は、カメラ21から得られる術野画像である。学習モデル430に入力される術野画像は、動画に限らず、静止画であってもよい。また、学習モデル430に入力される術野画像は、カメラ21から得られる生の画像である必要はなく、適宜の画像処理を加えた画像や画像の周波数成分を示すデータなどであってもよい。学習モデル430は、術野画像の入力に対し、術野画像に含まれる疎性結合組織部分の切除部位を示す画像を出力するように学習される。
学習モデル430を生成する際、術野画像と当該術野画像に含まれ得疎性結合組織の切断部位を示す正解データとの組からなる訓練データが用意される。
図26は正解データの作成手順を説明する説明図である。作業者(医師などの専門家)は、疎性結合組織LCTを含む術野画像に対してアノテーションを実施する。例えば、作業者は、術野画像において、疎性結合組織に該当する部分を画素単位で指定すると共に、疎性結合組織LCTの切断部位を帯状の領域CRにより指定する。画像処理装置30は、この領域CR内において疎性結合組織LCTとして指定された画素を、疎性結合組織LCTにおける切断部位(正解データ)として、記憶装置303に記憶させる。
また、疎性結合組織を認識するための学習モデル410が既に得られている場合、学習モデル410により生成される認識画像を術野画像と共にサブモニタ31に表示させ、表示させた認識画像において切断部位を示す領域CRの指定を受け付けてもよい。
更に、画像処理装置30は、医師により疎性結合組織が切断されている動画を解析し、電気メスなどの手術器具50の軌跡を特定することによって、その術野画像における疎性結合組織の切断部位を指定する構成としてもよい。
画像処理装置30は、術野画像と当該術野画像に含まれる疎性結合組織において切断部位を示す正解データとの組からなる訓練データを用いて、学習モデル430を生成する。学習手順は実施の形態2と同様であるため、説明を省略する。
画像処理装置30は、学習済みの学習モデル430が得られた後の運用フェーズにおいて、以下の処理を実行する。図27は実施の形態5における画像処理装置30が運用フェーズにおいて実行する処理の手順を説明するフローチャートである。画像処理装置30のCPU301は、術野画像を取得する都度、以下の処理を実行する。CPU301は、実施の形態2と同様の手順により、取得した術野画像を学習モデル430に入力し、学習モデル430による演算を実行することにより、疎性結合組織における切断部位を認識する(ステップS501~S503)。すなわち、CPU301は、学習モデル430のソフトマックス層433から出力される確率を参照して、各画素が切断部位に該当するか否かを判断すればよい。
CPU301は、認識した切断部位の認識結果を示す認識画像を生成する(ステップS504)。CPU301は、ソフトマックス層433から出力されるラベルの確率が閾値以上(例えば50%以上)の画素を抽出することによって、切断部位の認識結果を示す認識画像を生成することができる。CPU301は、切断部位として認識された画素には、人体内部に存在しない色(例えば青色や水色などの寒色系(青系)の色)を割り当て、それ以外の画素には背景が透過するような透過度を設定すればよい。
CPU301は、生成した認識画像を術野画像に重畳して表示する(ステップS505)。これにより、学習モデル430を用いて認識した切断部位は特定の色を有する領域として術野画像上に表示される。また、CPU301は、特定の色で示されている領域が切除されるべき部位であることを示すメッセージを術野画像上に表示してもよい。
図28は切断部位の表示例を示す模式図である。図面作成の都合上、図28の表示例では、学習モデル430を用いて認識された切断部位53aを太実線により示している。実際には、切断部位に該当する部分が画素単位で青色や水色などの人体内部に存在しない色で塗られるため、術者は、サブモニタ31の表示画面を見ることにより、疎性結合組織における切断部位を明確に把握することができる。
以上のように、実施の形態5では、疎性結合組織の切断部位を術者に提示することにより、手術支援を実施することができる。
なお、本実施の形態では、学習モデル430を用いて、疎性結合組織における切断部位を認識する構成としたが、術者画像に含まれる疎性結合組織と、この疎性結合組織における切断部位とを区別して認識し、疎性結合組織と認識された部分を例えば緑色、その疎性結合組織の中で切断部位と認識された部分を例えば青色といったように色などの表示態様を異ならせて表示してもよい。また、認識結果の確信度(ソフトマックス層433から出力される確率)に応じて、濃度や透明度を変更し、確信度が低い部分を薄い色(透明度が高い色)にて表示し、確信度が高い部分を濃い(透明度が低い色)にて表示してもよい。
また、実施の形態2(又は実施の形態4)と実施の形態5とを組み合わせ、切断タイミングと認識された場合に、切断部位の認識画像を重畳表示する構成としてもよい。
更に、本実施の形態では、切断部位と認識された部位を画素単位で着色して表示する構成としたが、切断部位と認識された画素を含むような領域又はラインを生成し、生成した領域又はラインを切断部位の認識画像として術野画像に重畳表示してもよい。
(実施の形態6)
実施の形態6では、術野画像に基づいて解剖状態をスコア化する構成について説明する。
解剖状態のスコア化とは、解剖状態の良否を数値によって表現することをいう。本実施の形態では、解剖状態が良ければスコアが高くなり、解剖状態が悪ければスコアが低くなるように、スコアの高低が定義される。画像処理装置30は、カメラ21により撮像された術野画像を取得した場合、後述する学習モデル440に術野画像を入力することによって、解剖状態のスコアを算出する。
なお、実施の形態1におけるスコア、並びに、実施の形態6(及び後述する実施の形態7-8)におけるスコアは、共に解剖状態に関するスコアを表しているが、実施の形態1のスコアは、結合組織の状態が処置に適した度合いを表すのに対し、実施の形態6-8のスコアは、解剖結果の良否を表している。
図29は実施の形態6における学習モデル440の構成を説明する模式図である。学習モデル440は、CNN、R-CNNなどによる学習モデルであり、入力層441、中間層442、及び出力層443を備える。学習モデル440は、術野画像の入力に対して、解剖状態のスコアに関する情報を出力するように学習される。学習モデル440は、画像処理装置30若しくは画像処理装置30と通信可能に接続される外部サーバによって生成され、画像処理装置30のモデル記憶部331に記憶される。
なお、学習モデル440に入力される術野画像は、動画に限らず、静止画であってもよい。また、学習モデル440に入力される術野画像は、カメラ21から得られる生の画像である必要はなく、適宜の画像処理を加えた画像や画像の周波数成分を示すデータなどであってもよい。
入力層441には、術野画像が入力される。中間層442は、畳み込み層、プーリング層、及び全結合層などを備える。畳み込み層及びプーリング層は交互に複数設けられてもよい。畳み込み層及びプーリング層は、各層のノードを用いた演算によって術野画像の特徴部分を抽出する。全結合層は、畳み込み層及びプーリング層によって特徴部分が抽出されたデータを1つのノードに結合し、活性化関数によって変換された特徴変数を出力する。特徴変数は、全結合層を通じて出力層へ出力される。
出力層443は、1つ又は複数のノードを備える。出力層443は、中間層442の全結合層から入力される特徴変数を基に、ソフトマックス関数を用いて確率に変換し、変換後の確率を各ノードから出力する。例えば、出力層443を第1ノードから第nノードまでのn個のノードで構成し、第1ノードからは、スコアがS1である確率P1、第2ノードからは、スコアがS2(>S1)である確率P2、第3ノードからは、スコアがS3(>S2)である確率P3、…、第nノードからは、スコアがSn(>Sn-1)である確率Pnを出力する。
実施の形態6に示す学習モデル440は、各スコアの確率を出力する出力層443を備える構成としたが、このような学習モデル440に代えて、術野画像を入力した場合、解剖状態のスコアを算出するよう学習された回帰モデルを用いてもよい。
学習モデル440は、術野画像と、この術野画像における解剖状態について定められたスコア(正解データ)との組を訓練データに用いて、適宜の学習アルゴリズムに基づき学習を実行することにより生成される。訓練データに用いる解剖状態のスコアは、例えば医師によって定められる。医師は、術野画像より解剖状態を確認し、結合組織の露出面積、結合組織の緊張状態、結合組織の周囲に存在する血管や脂肪などの構造物の多少(まとわりつきの度合い)、温存臓器の損傷度合いなどの観点から、スコアを定めればよい。また、訓練データに用いる解剖状態のスコアは画像処理装置30によって定められてもよい。例えば、画像処理装置30は、上述の学習モデル410を用いて術野画像に含まれる疎性結合組織を認識し、その認識結果から、疎性結合組織の露出面積、緊張状態、周囲に存在する構造物の多少などを評価し、評価結果からスコアを決定すればよい。また、画像処理装置30は、温存臓器を認識し、正常とは異なる色(焼けた痕)や形状などを評価することによって、スコアを決定してもよい。
画像処理装置30は、生成された学習モデル440を用いて、術野画像により示される解剖状態をスコア化する。図30は実施の形態6における画像処理装置30が実行する処理の手順を説明するフローチャートである。画像処理装置30のCPU301は、カメラ21により撮像された術野画像を取得した場合(ステップS601)、取得した術野画像を学習モデル440に入力して、学習モデル440による演算を実行する(ステップS602)。学習モデル440による演算が実行されることによって、出力層443を構成する各ノードからは、各スコアに対する確率が得られる。
CPU301は、学習モデル440の出力を参照して、解剖状態のスコアを特定する(ステップS603)。出力層443の各ノードからは、各スコアに対する確率が得られるので、CPU301は、確率が最も高いスコアを選択することによって、解剖状態のスコアを特定すればよい。
CPU301は、特定したスコアに関連付けて術野画像を記憶装置303に記憶させる(ステップS604)。このとき、CPU301は、全ての術野画像をスコアに関連付けて記憶装置303に記憶させてもよい。また、CPU301は、スコアが所定値よりも大きい(若しくは所定値より小さい)術野画像のみを抽出して、記憶装置303に記憶させてもよい。
以上のように、実施の形態6では、術野画像に含まれる解剖状態をスコア化し、術野画像とスコアとを関連付けて記憶装置303に記憶させることができる。スコアに関連付けて記憶された術野画像は、手術の評価や研修医等の教育支援などのために用いることができる。
(実施の形態7)
実施の形態7では、鏡視下手術を補助する補助者(助手)への指示を行う構成について説明する。
実施の形態7における学習モデル440は、術野画像が入力された場合、処理対象領域の状態に関するスコアを出力するよう学習される。例えば、処理対象領域が切除に適した状態であればスコアが高くなり、切除に適していない状態であればスコアが低くなるように、スコアの高低が定義される。ここで、切除に適した状態とは、処理対象領域が3点で牽引され、三角形をなす平面部が作られた状態をいう。逆に、切除に適していない状態とは、処理対象領域が十分に展開されておらず、弛みが生じた状態をいう。
学習モデル440の内部構成は、実施の形態6と同様であり、入力層441、中間層442、及び出力層443を備える。学習モデル440は、術野画像と、この術野画像における処理対象領域の状態について定められたスコア(正解データ)との組を訓練データに用いて、適宜の学習アルゴリズムに基づき学習を実行することにより生成される。なお、訓練データに用いる処理対象領域の状態のスコアは、例えば医師によって定められる。医師は、術野画像より処理対象領域の状態を確認し、例えば切除に適した状態か否かの観点から、スコアを定めればよい。
図31~図33は処理対象領域の状態を説明する説明図である。図31は、脂肪組織FATの異なる2箇所をそれぞれ鉗子50Aによって把持し、脂肪組織FATを少しだけ持ち上げた状態を示している。この例では、処理対象領域は十分に展開されておらず、弛みが生じているため、切除が困難な状態となっている。図31に示すような術野画像を学習モデル440に入力した場合に得られるスコアは比較的低くなるので、画像処理装置30は、スコアが改善するように補助者への操作支援を行う。画像処理装置30は、例えば、処理対象領域を展開し、弛みをなくすように補助者へ指示することによって操作支援を行う。補助者への指示は、サブモニタ31への表示や音声出力などにより実施される。
図32は、脂肪組織FATの異なる2箇所をそれぞれ鉗子50Aによって把持し、脂肪組織FATを十分に持ち上げた状態を示している。しかしながら、2つの鉗子50A,50Aの間隔が狭く、両者の間で弛みが生じている。図32に示すような術野画像を学習モデル440に入力した場合、スコアは改善するが、切除するには十分でないため、画像処理装置30は、スコアが更に改善するように補助者への操作支援を行う。画像処理装置30は、例えば、処理対象領域を展開し、弛みをなくすように補助者へ指示することによって操作支援を行う。補助者への指示は、サブモニタ31への表示や音声出力などにより実施される。
また、画像処理装置30は、処理対象領域の状態を評価し、評価結果に基づいて補助者への指示を行ってもよい。画像処理装置30は、例えば、脂肪組織FATを2箇所で把持した場合に形成される稜線を評価すればよい。図31及び図32において、稜線は破線によって示されている。図31に示す稜線は直線状となっているため、左右方向の弛みは少ないが、上方への持ち上げ量が十分でない(稜線と臓器との距離が短い)ため、上下方向に弛みが生じている。そこで、画像処理装置30は、鉗子50Aにより脂肪組織FATを持ち上げるように補助者に指示してもよい。図32では上方への持ち上げ量は十分であるが、稜線が円弧状となっているため、左右方向に弛みが生じている。そこで、画像処理装置30は、鉗子50Aにより左右方向へ脂肪組織FATを拡げるように補助者に指示してもよい。
図33は、脂肪組織FATの異なる2箇所をそれぞれ鉗子50Aによって把持し、脂肪組織FATを十分に持ち上げ、左右方向に拡げた状態を示している。このような術野画像を学習モデル440に入力した場合、スコアは十分に改善し、切除に適した状態であるため、画像処理装置30は、術者への操作支援を行う。画像処理装置30は、処理対象領域を切除するように術者に指示することによって操作支援を行う。術者への指示は、サブモニタ31への表示や音声出力などにより実施される。
以上のように、実施の形態7では、学習モデル440により処理対象領域の状態を把握し、把握した処理対象領域の状態に基づき、術者及び補助者への操作支援を行うことができる。
(実施の形態8)
実施の形態8では、術野画像の予測画像を生成し、生成した予測画像をナビゲーション情報として出力する構成について説明する。
図34は実施の形態8における学習モデルを説明する説明図である。実施の形態8では、術野画像の入力に対して、スコアが少しだけ改善するような術野画像(予測画像)を生成する画像生成モデルを用いる。
学習モデル450は、例えば、スコア域が0-10(0以上10未満)の術野画像を入力した場合、スコア域が10-20の予測画像を出力するよう学習された画像生成モデルである。画像生成モデルとして、GAN(Generative Adversarial Network)、VAE(Variational Autoencoder)、オートエンコーダ、フローベース生成モデルなどを用いることができる。このような学習モデル450は、例えば、スコア域が0-10の術野画像(入力データ)と、スコア域が10-20の術野画像(正解データ)とを記憶装置303から読み出し、これらの組を訓練データに用いて学習することにより生成される。
同様に、スコア域が10-20の術野画像を入力した場合、スコア域が20-30の予測画像を出力するよう学習された学習モデル、スコア域が20-30の術野画像を入力した場合、スコア域が30-40の予測画像を出力するよう学習された学習モデル、…、といったように、術野画像の入力に対して、スコアが少しだけ改善するような術野画像を生成する画像生成モデルが予め用意される。
なお、画像生成モデルに入力される術野画像は、動画に限らず、静止画であってもよい。また、画像生成モデルに入力される術野画像は、カメラ21から得られる生の画像である必要はなく、適宜の画像処理を加えた画像や画像の周波数成分を示すデータなどであってもよい。また、画像生成モデルに入力される術野画像のスコア域、画像生成モデルから出力される術野画像のスコア域は、上述した範囲に限定されず、適宜設定することが可能である。また、本実施の形態では、実際に撮像された術野画像を正解データに用いて学習する構成としたが、正解データとして3Dグラフィックスにより描画された仮想的な術野画像を用いてもよい。
画像処理装置30は、画像生成モデルが生成された後の運用フェーズにおいて、画像生成モデルを用いて予測画像を生成し、術者に対して提示する。図35は実施の形態8における画像処理装置30が実行する処理の手順を説明するフローチャートである。画像処理装置30のCPU301は、カメラ21により撮像された術野画像を取得した場合(ステップS801)、取得した術野画像を実施の形態6において説明した学習モデル440に入力して、学習モデル440による演算を実行する(ステップS802)。学習モデル440による演算が実行されることによって、出力層443を構成する各ノードからは、各スコアに対する確率が得られる。
CPU301は、学習モデル440の出力を参照して、解剖状態のスコアを特定する(ステップS803)。出力層443の各ノードからは、各スコアに対する確率が得られるので、CPU301は、確率が最も高いスコアを選択することによって、解剖状態のスコアを特定すればよい。
CPU301は、特定したスコアに応じて画像生成モデルを選択する(ステップS804)。例えば、ステップS803で特定したスコアが0-10のスコア域であれば、CPU301は学習モデル450を選択する。ステップS803で特定したスコアが他のスコア域である場合も同様であり、CPU30は、それぞれのスコア域に関して用意された学習モデルを選択すればよい。
CPU301は、選択した画像生成モデルに術野画像を入力し、画像生成モデルによる演算を実行することによって、予測画像を生成する(ステップS805)。CPU301は、生成した予測画像をサブモニタ31に表示する(ステップS806)。このとき、CPU301は、術野画像とは別に予測画像を表示すればよい。
以上のように、実施の形態8では、解剖状態の予測画像を表示できるので、術者に対する操作支援を実行することができる。
以上、本実施形態について説明したが、上記実施形態は本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物も含まれる。
311 映像取得部
312 解剖状態取得部
313 処置可能領域表示部
314 学習処理部
315 スコア算出部
316 スコア出力部
331 モデル記憶部

Claims (19)

  1. コンピュータに、
    鏡視下手術の術野を撮像して得られる術野画像を取得し、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得し、
    前記学習モデルから取得した情報に基づき、前記結合組織の露出面積を算出し、
    算出した露出面積に基づき、前記結合組織の切断タイミングを決定し、
    決定した切断タイミングに関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
    処理を実行させるためのコンピュータプログラム。
  2. コンピュータに、
    鏡視下手術の術野を撮像して得られる術野画像を取得し、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得し、
    前記学習モデルから取得した情報に基づき、前記結合組織の露出面積を算出し、
    算出した露出面積の多少を示すインジケータを、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
    処理を実行させるためのコンピュータプログラム。
  3. コンピュータに、
    鏡視下手術の術野を撮像して得られる術野画像を取得し、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得し、
    前記学習モデルから取得した情報に基づき、前記結合組織を展開又は切断する際の術具の操作方向を決定し、
    決定した操作方向に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
    処理を実行させるためのコンピュータプログラム。
  4. コンピュータに、
    鏡視下手術の術野を撮像して得られる術野画像を取得し、
    術野画像を入力した場合、温存臓器と切除臓器との間に存在し、緊張状態にある結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれ、温存臓器と切除臓器との間に存在し、緊張状態にある結合組織を識別する情報を取得し、
    前記学習モデルから取得した情報に基づき、前記結合組織の切断の適否を判断し、
    前記結合組織の切断の適否に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
    処理を実行させるためのコンピュータプログラム。
  5. コンピュータに、
    鏡視下手術の術野を撮像して得られる術野画像を取得し、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織の切断タイミングに関する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織の切断タイミングに関する情報を取得し、
    前記学習モデルより得られる切断タイミングに関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
    処理を実行させるためのコンピュータプログラム。
  6. コンピュータに、
    鏡視下手術の術野を撮像して得られる術野画像を取得し、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織における切断部位に関する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織における切断部位に関する情報を取得し、
    前記学習モデルより得られる切断部位に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する
    処理を実行させるためのコンピュータプログラム。
  7. コンピュータに、
    鏡視下手術の術野を撮像して得られる術野画像を取得し、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織の状態が処置に適している度合いを示すスコアを出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織についてのスコアを取得し、
    温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として、前記学習モデルから取得したスコアを出力する
    処理を実行させるためのコンピュータプログラム。
  8. 前記学習モデルは、前記結合組織の露出面積、前記結合組織の緊張状態、前記結合組織の周囲に存在する構造物の多少、及び前記温存臓器の損傷度合いの少なくとも1つに応じて、前記スコアが変動するよう学習してある
    請求項に記載のコンピュータプログラム。
  9. 前記学習モデルに入力した術野画像と、該術野画像を前記学習モデルに入力することによって得られたスコアとを関連付けて記憶装置に記憶させる
    処理を実行させるための請求項又は請求項に記載のコンピュータプログラム。
  10. 前記学習モデルは、処理対象領域の状態に応じて、前記スコアが変動するよう学習してあり、
    前記学習モデルから出力されるスコアに基づき、前記鏡視下手術を補助する補助者への指示を出力する
    処理を実行させるための請求項から請求項の何れか1つに記載のコンピュータプログラム。
  11. 術野画像を入力した場合、解剖状態の予測画像を生成するように学習された画像生成モデルに、取得した術野画像を入力して、前記術野画像に対する予測画像を取得し、
    取得した予測画像を前記ナビゲーション情報として出力する
    処理を実行させるための請求項1から請求項10の何れか1つに記載のコンピュータプログラム。
  12. コンピュータを用いて、
    鏡視下手術の術野を撮像して得られる術野画像と、該術野画像に含まれる温存臓器と切除臓器との間の結合組織に関する情報とを含む訓練データを取得し、
    取得した訓練データのセットに基づき、術野画像を入力した場合、温存臓器と切除臓器との間の結合組織に関する情報を出力する学習モデルを生成する
    学習モデルの生成方法。
  13. 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得する第2取得部と、
    前記学習モデルから取得した情報に基づき、前記結合組織の露出面積を算出する算出部と、
    算出した露出面積に基づき、前記結合組織の切断タイミングを決定する決定部と、
    決定した切断タイミングに関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
    を備える画像処理装置。
  14. 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得する第2取得部と、
    前記学習モデルから取得した情報に基づき、前記結合組織の露出面積を算出する算出部と、
    算出した露出面積の多少を示すインジケータを、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
    を備える画像処理装置。
  15. 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる温存臓器と切除臓器との間の結合組織を識別する情報を取得する第2取得部と、
    前記学習モデルから取得した情報に基づき、前記結合組織を展開又は切断する際の術具の操作方向を決定する決定部と、
    決定した操作方向に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
    を備える画像処理装置。
  16. 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
    術野画像を入力した場合、温存臓器と切除臓器との間に存在し、緊張状態にある結合組織を識別する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれ、温存臓器と切除臓器との間に存在し、緊張状態にある結合組織を識別する情報を取得する第2取得部と、
    前記学習モデルから取得した情報に基づき、前記結合組織の切断の適否を判断する判断部と、
    前記結合組織の切断の適否に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
    を備える画像処理装置。
  17. 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織の切断タイミングに関する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織の切断タイミングに関する情報を取得する第2取得部と、
    前記学習モデルより得られる切断タイミングに関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
    を備える画像処理装置。
  18. 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織における切断部位に関する情報を出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織における切断部位に関する情報を取得する第2取得部と、
    前記学習モデルより得られる切断部位に関する情報を、温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として出力する出力部と
    を備える画像処理装置。
  19. 鏡視下手術の術野を撮像して得られる術野画像を取得する第1取得部と、
    術野画像を入力した場合、温存臓器と切除臓器との間の結合組織の状態が処置に適している度合いを示すスコアを出力するように学習された学習モデルに、取得した術野画像を入力して、該術野画像に含まれる結合組織についてのスコアを取得する第2取得部と、
    温存臓器と切除臓器との間の結合組織を処理する際のナビゲーション情報として、前記学習モデルから取得したスコアを出力する出力部と
    を備える画像処理装置。
JP2021574738A 2020-01-30 2021-02-01 コンピュータプログラム、学習モデルの生成方法、及び画像処理装置 Active JP7153974B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PCT/JP2020/003481 WO2021152784A1 (ja) 2020-01-30 2020-01-30 手術支援システム
JPPCT/JP2020/003481 2020-01-30
PCT/JP2021/003489 WO2021153797A1 (ja) 2020-01-30 2021-02-01 コンピュータプログラム、学習モデルの生成方法、画像処理装置、及び手術支援システム

Publications (3)

Publication Number Publication Date
JPWO2021153797A1 JPWO2021153797A1 (ja) 2021-08-05
JPWO2021153797A5 JPWO2021153797A5 (ja) 2022-07-22
JP7153974B2 true JP7153974B2 (ja) 2022-10-17

Family

ID=77078283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021574738A Active JP7153974B2 (ja) 2020-01-30 2021-02-01 コンピュータプログラム、学習モデルの生成方法、及び画像処理装置

Country Status (4)

Country Link
US (1) US20230098859A1 (ja)
JP (1) JP7153974B2 (ja)
CN (1) CN115023193A (ja)
WO (2) WO2021152784A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230281968A1 (en) * 2020-07-30 2023-09-07 Anaut Inc. Recording Medium, Method for Generating Learning Model, Surgical Support Device and Information Processing Method
JP7413216B2 (ja) * 2020-09-15 2024-01-15 富士フイルム株式会社 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
JP7311936B1 (ja) * 2021-11-04 2023-07-20 アナウト株式会社 コンピュータプログラム、学習モデルの生成方法、及び情報処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013154037A (ja) 2012-01-31 2013-08-15 Fujifilm Corp 手術支援装置、手術支援方法および手術支援プログラム
WO2017200066A1 (ja) 2016-05-18 2017-11-23 国立大学法人三重大学 がん検査装置、がん検査方法、および、がん検査用の染色剤
WO2019054045A1 (ja) 2017-09-15 2019-03-21 富士フイルム株式会社 医療画像処理装置、医療画像処理方法及び医療画像処理プログラム
JP2019162339A (ja) 2018-03-20 2019-09-26 ソニー株式会社 手術支援システムおよび表示方法
WO2020110278A1 (ja) 2018-11-30 2020-06-04 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594841B2 (en) * 2008-12-31 2013-11-26 Intuitive Surgical Operations, Inc. Visual force feedback in a minimally invasive surgical procedure
WO2017109912A1 (ja) * 2015-12-24 2017-06-29 オリンパス株式会社 医療用マニピュレータシステムとその画像表示方法
US10610302B2 (en) * 2016-09-20 2020-04-07 Siemens Healthcare Gmbh Liver disease assessment in medical imaging
JP6749020B2 (ja) * 2017-11-29 2020-09-02 水野 裕子 内視鏡ナビゲーション装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013154037A (ja) 2012-01-31 2013-08-15 Fujifilm Corp 手術支援装置、手術支援方法および手術支援プログラム
WO2017200066A1 (ja) 2016-05-18 2017-11-23 国立大学法人三重大学 がん検査装置、がん検査方法、および、がん検査用の染色剤
WO2019054045A1 (ja) 2017-09-15 2019-03-21 富士フイルム株式会社 医療画像処理装置、医療画像処理方法及び医療画像処理プログラム
JP2019162339A (ja) 2018-03-20 2019-09-26 ソニー株式会社 手術支援システムおよび表示方法
WO2020110278A1 (ja) 2018-11-30 2020-06-04 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
篠原 尚、外9名,WS15-2 画像セグメンテーションによる微細解剖構造認識;ロボット支援下胃癌手術における疎性結合組,第75回日本消化器外科学会総会抄録集,日本,日本消化器外科学会,2020年12月,p.134

Also Published As

Publication number Publication date
WO2021153797A8 (ja) 2021-09-23
JPWO2021153797A1 (ja) 2021-08-05
US20230098859A1 (en) 2023-03-30
WO2021153797A1 (ja) 2021-08-05
CN115023193A (zh) 2022-09-06
WO2021152784A1 (ja) 2021-08-05

Similar Documents

Publication Publication Date Title
JP7153974B2 (ja) コンピュータプログラム、学習モデルの生成方法、及び画像処理装置
JP7308936B2 (ja) インジケータシステム
US6863536B1 (en) Endoscopic tutorial system with a bleeding complication
WO2020194942A1 (ja) 脈管認識装置、脈管認識方法および脈管認識システム
RU128762U1 (ru) Гибридный медицинский тренажер лапароскопии
JP7194889B2 (ja) コンピュータプログラム、学習モデルの生成方法、手術支援装置、及び情報処理方法
WO2023095492A1 (ja) 手術支援システム、手術支援方法、及び手術支援プログラム
WO2022158451A1 (ja) コンピュータプログラム、学習モデルの生成方法、及び支援装置
CN111770735B (zh) 手术仿真信息生成方法及程序
US20230009335A1 (en) Guided anatomical manipulation for endoscopic procedures
US11896323B2 (en) System, method, and computer-accessible medium for automatically tracking and/or identifying at least one portion of an anatomical structure during a medical procedure
JP2023090809A (ja) 手術内容評価システム、手術内容評価方法及びコンピュータプログラム
KR20140035035A (ko) 가상 나이프를 이용한 수술 시뮬레이션 방법 및 그 장치
JP7311936B1 (ja) コンピュータプログラム、学習モデルの生成方法、及び情報処理装置
US20230105111A1 (en) System and Method for Teaching Minimally Invasive Interventions
JP2005329099A (ja) 管腔臓器切除シミュレーション方法
JP7368922B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
WO2023162657A1 (ja) 医療支援装置、医療支援装置の作動方法及び作動プログラム
Cetinsaya Design and Development of a Preliminary Virtual Endoluminal Surgical Simulation (VESS) for Endoscopic Submucosal Dissection (ESD) Surgery
JP5745390B2 (ja) 画像処理装置、方法およびプログラム
CN117479896A (zh) 包括可在组织穿透外科装置的通道外展开的相机阵列的系统
JP2021045340A (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
JP2017040754A (ja) 組織のボリュームデータに対応した模擬処置開始位置を決定する方法、装置及び手術シミュレータ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220927

R150 Certificate of patent or registration of utility model

Ref document number: 7153974

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350