JP2020537205A - 意思決定理論モデルを用いた手術の意思決定支援 - Google Patents

意思決定理論モデルを用いた手術の意思決定支援 Download PDF

Info

Publication number
JP2020537205A
JP2020537205A JP2020510594A JP2020510594A JP2020537205A JP 2020537205 A JP2020537205 A JP 2020537205A JP 2020510594 A JP2020510594 A JP 2020510594A JP 2020510594 A JP2020510594 A JP 2020510594A JP 2020537205 A JP2020537205 A JP 2020537205A
Authority
JP
Japan
Prior art keywords
surgical
state
world
states
given
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2020510594A
Other languages
English (en)
Inventor
ルス,ダニエラ
メイレレス,オザナン
ロスマン,ギュイ
ハシモト,デイビツド
Original Assignee
ザ ジェネラル ホスピタル コーポレーション ドゥーイング ビジネス アズ マサチューセッツ ジェネラル ホスピタル
ザ ジェネラル ホスピタル コーポレーション ドゥーイング ビジネス アズ マサチューセッツ ジェネラル ホスピタル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ザ ジェネラル ホスピタル コーポレーション ドゥーイング ビジネス アズ マサチューセッツ ジェネラル ホスピタル, ザ ジェネラル ホスピタル コーポレーション ドゥーイング ビジネス アズ マサチューセッツ ジェネラル ホスピタル filed Critical ザ ジェネラル ホスピタル コーポレーション ドゥーイング ビジネス アズ マサチューセッツ ジェネラル ホスピタル
Publication of JP2020537205A publication Critical patent/JP2020537205A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Urology & Nephrology (AREA)
  • Bioethics (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】【解決手段】観測結果を提供するために、患者の手術過程をセンサにおいて監視する。前記観測結果及びそれぞれの手術状態に用いられる観測関数から、現在の手術状態を手術の異なる段階を表す複数の手術状態について信念状態として推定する。推定された手術状態から複数のワールド状態のうちの1つのワールド状態を推定し、前記1つのワールド状態は、前記患者、手術過程を実施する医療従事者及び手術過程が実行される環境のうちの1つの状態を表す。推定された手術状態、推定されたワールド状態及びモデルから、手術過程中に入る少なくとも1つの手術状態を予測し、関連する出力デバイスにおいて予測された少なくとも1つの手術状態を表す出力を提供する。【選択図】図3

Description

発明の詳細な説明
(関連記載)
本願は、2017年8月23日に出願されたSURGICAL DECISION THEORETIC ANALYSIS(手術の意思決定分析)と題する米国仮特許出願第62/549,272号(その代理人整理番号がMGH 24623である)の優先権を主張する。この出願の全ての内容は、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。
本開示の内容は、意思決定支援のためのシステム及び方法に関し、特に意思決定理論モデルを用いた手術の意思決定支援のためのシステム及び方法に関する。
新たな技術および外科的疾患に対する認識がより深くなっているにつれて、外科介護の質が絶えずに向上するため、多くの患者への介護と介護の質には依然としてギャップが存在する。これは、最小限のボリュームの保証をもたらし、手術処置を、数が任意に特定された十分な年間症例数を有する外科医及び病院に制限する。ボリュームの保証によって、人々は外科介護の潜在的な地域化及び地域化が外科手術を受けること(特に農村地区)に影響を与えることをより多く注目している。多くの患者は、複雑な手術のために大規模な病院に訪れることが容易ではなく、また、最近の研究では、例えば、がんを患う農村患者は、小規模でありながら地元の病院で切除手術を受ける可能性が高いことが示されている。さらに、介護の地域化が比例しないことが少数民族と個人保険を有さない患者に影響を与えることを示唆する証拠がある。これは、彼らが小規模な病院で手術を受ける可能性が最も高いためである。従って、提案されたボリュームの保証を有する介護の再配分は、全ての患者にとって最善の解決策ではない恐れがある。
推定2.342億回の手術が世界中で行われているが、外科医は、一度に1名の患者からしか学ぶことができず、レート手順に関する知識が制限されている。研修が設けられることで、外科医に必要な基本的なスキルを提供し、実際に遭遇する各状況、さらに新たな状況に安全な手術の原則を適用及び拡張する。しかし、研修は、経験豊富な外科医への見習いのような接触に依存する。これらの経験豊富な多くの経験データを有する外科医は、利用可能性が限られる。従って、数少ない症例のトレーニングは、限られた数の外科医に任せられ、これらの外科医は、通常大規模な都市の学術センターに収容されるサブ専門家フェローシップを完了させる必要があり、農村部及び少数民族の人々が介護を受けにくくなる。
以前の試みは、手術介護を最適化するために、手術中の意思決定モデルを蓄積して外科医に配布するようになされてきた。認知タスク分析(cognitive task analysis,CTA)は、経験豊富な外科医の知識を体系化して標準化されたチェックリストにまとめることで、意思決定を支援する。外科手術患者のうち、67%と多いミスが手術中に生じ、これらのミスのうち、86%のミスが認知的要因に起因し、例えば、判断力又は記憶力の低下による劣った意思決定が挙げられる。しかし、CTAは以下の事情に制限され、即ち、経験不足又は自動化のため、外科医の意識的想起に50〜75%の手術の意思決定が欠けている可能性があり、これらの努力は、時間がかかり、大規模な罹患率および死亡率の問題に対処していない。
本発明の一態様によれば、システムが提供される。患者の手術過程(外科手術、surgical procedure)を監視するように、少なくとも1つのセンサは、位置決めされている。プロセッサは、非一時的なコンピュータに操作可能に接続され、このコンピュータは、手術の意思決定支援システムを提供するための機器実行可能な命令を記憶し、各センサインターフェースを提供するように、前記機器実行可能な命令はプロセッサによって実行され、前記センサインターフェースは、少なくとも1つのセンサからのデータを受信し、受信したデータ、手術モデル、エージェント(agent)及びユーザインターフェースから観測結果(observation)を生成する。
手術モデルは、それぞれが手術の異なる段階を表す複数の手術状態と、手術状態が与えられた場合にセンサインターフェースからの与えられる観測結果の少なくとも1つの可能性を表す各手術状態に用いられる観測関数(observation function)と、複数の手術状態の状態間で遷移するように外科医が採用可能な複数のアクションと、それぞれが患者の一人の状態と手術過程が行われている環境を表す複数のワールド状態と、それぞれが1つの特定の手術状態が与えられた場合に1つの与えられたワールド状態と他の1つのワールド状態との間に遷移する可能性を表す1組のエフェクタ(effector)と、それぞれが1つの特定のワールド状態と複数のアクションのうち選択された1つのアクションのそれぞれが与えられた場合に1つの与えられた手術状態から他の手術状態へ遷移する可能性を表す1組の遷移確率(transition probability)と、少なくとも2つの順番付けられたペアのうちのそれぞれのペアについてそれぞれの報酬値を定義する報酬関数(rewards function)とを含む。少なくとも2つの順番付けられたペアのうちのそれぞれのペアは、複数の手術状態のうちの1つの手術状態と複数のワールド状態のうちの1つのワールド状態を表す。
エージェントは、現在の手術状態とワールド状態分布を信念状態(belief state)として推定し、センサインターフェースからの少なくとも1つの観測結果が与えられた場合に予想される報酬を最適化するために、複数のアクションのうちの少なくとも1つを選択する。ユーザインターフェースは、複数のアクションのうちの選択された少なくとも1つ、手術過程で選択された手術状態に入る可能性及び予想される最終のワールド状態のうちの1つを関連する出力デバイスに提供する。出力デバイスは、複数のアクションのうちの選択された少なくとも1つ、手術過程で選択された手術状態に入る可能性及び予想される最終のワールド状態のうちの前記1つを、人間が理解できる形態でユーザに提供する。
本発明の他の態様によれば、方法が提供される。観測結果を提供するために、患者の手術過程をセンサにおいて監視する。この観測結果とそれぞれの手術状態に用いられる観測関数から、現在の手術状態を複数の手術状態に関する信念状態として推定し、前記複数の手術状態は手術の異なる段階を表す。推定された手術状態から、患者の一人の状態と手術過程が行われている環境を表す複数のワールド状態のうちの1つワールド状態を推定する。推定された手術状態、推定されたワールド状態及びモデルから、手術過程で入る少なくとも1つの手術状態を予測し、関連する出力デバイスにおいて予測された少なくとも1つの手術状態を表す出力を提供する。
本発明の他の態様によれば、方法が提供される。複数の時系列の観測結果を提供するために、センサにおいて複数の手術過程を監視する。手術過程の異なる段階を表す複数の手術状態のそれぞれについて、前記複数の時系列の観測結果から観測関数及び1組の遷移確率を学習する。各観測関数は、1つの手術状態が与えられた場合にセンサからの与えられる観測結果の少なくとも1つの可能性を表す。各組の遷移確率は、複数のワールド状態の1つの特定のワールド状態と複数のアクションの選択されたアクションのうちそれぞれが与えられた場合に1つの与えられた手術状態から他の手術状態へ遷移する可能性を表す。複数の時系列の観測結果から1組のエフェクタを学習する。各組のエフェクタは、1つの特定の手術状態が与えられた場合に複数のワールド状態の1つの与えられたワールド状態と複数のワールド状態の他のワールド状態との間で遷移する可能性を表す。少なくとも2つの順番付けられたペアのうちのそれぞれのペアについてそれぞれの報酬値を定義する、関連する報酬関数を生成する。少なくとも2つの順番付けられたペアのうちのそれぞれのペアは、複数の手術状態のうちの1つの手術状態と複数のワールド状態のうちの1つのワールド状態を表す。
手術の意思決定支援のためのシステムの一例を示す。 図1におけるシステムに使用可能なモデルの一例の一部を示す。 強化学習を介してトレーニングされたモデルを利用して手術意思決定を支援する方法を示す。 手術モデルを提供するための方法、例えば、図3に示される手術意思決定を支援する方法を示す。 本明細書で記述されるシステム及び方法を実現するためのコンピュータシステムを示す。
本明細書で提示されるシステム及び方法は、ビデオなどの操作可能なセンサデータをデータマイニングすることにより集合的な手術経験を生成し、逆に外科医の効果的な経験を高め、上記集合的な手術経験は、手術のための自動予測支援ツールを提供するために用いることができる。ストリーミングデータ分析の急速な進歩により、集合的な手術知識を効果的に収集、分析及び配布するための扉が開かれる。しかし、単に大量のデータを収集するだけでは不十分であり、また、個々のケースレベルでの人間による分析にはコストと時間がかかる。従って、手術で発生するまれな(重要)なイベントを巡って推論するために、いずれの実際の解決案は、多くの例を自動的にまとめる必要がある。本明細書で提示されるシステム及び方法は、手術意思決定理論モデル(SDTM)を提供し、このモデルは、人工知能(AI)における意思決定理論ツールを利用して手術意思決定の定性的知識を定量化し、正確且つリアルタイムな自動的な意思決定分析及び予測を実現する。
Alは、手術ビデオ分析における大部分の線形のシーケンスイベントを説明又はセグメント化するために使用させてきたが、手術中の意思決定は、特に緊急手術又は期間が選択された手術中に予期しないイベントの期間で常に線形プロセスに従うとは限らない。発明者は、現在臨床で使用されている計算ツールが、多くの関連因子、特に患者状態(例えば、炎症、異常な解剖構成など)によって影響を受ける高度に分岐した意思決定プロセスを分析する能力を欠けることを発見した。大量の手術ビデオにおける手術状態と外科医の内部報酬を意思決定理論モデルとしてモデル化することにより、本明細書で提示されるシステム及び方法は、外科医によってなされた価値判断をキャプチャすることができる。従って、データセットでSDTMを学習することで、特定の手術で発生する可能性のある意思決定パスを原因と結果の観点から評価する。例えば、胆嚢摘出術で重要な見解が取得できない場合、推定される胆管をクリッピングまたは切断する代わりに、胆管造影を実施して胆道の解剖学的構造を評価することによりCBD損傷を回避することができる。
提案されたモデルは、手術介護における差異を減少させるために、同時に進む方法を提供する。まず、自動化されたプロセスを介して多くの異なる外科医の手術ビデオから手術知識を収集し、手術技術及び意思決定を学び、これらの知識を広める。これにより、手術中の重要な意思決定ポイントの自動分析が可能となり、外科医にリアルタイムのフィードバック/指導を提供し、予測的なミス認識によって強化されて外科手術のパフォーマンスを向上させることができる。複数の外科医の経験を集めることにより、SDTMは、集団手術コミュニティの意思決定能力をそれぞれの手術に導くすることができる。これは、コンピュータで強化された手術中の意思決定の基礎を築き、手術中のパフォーマンスによって引き起こされる患者の罹患率と死亡率を低減又は解消する潜在力を有する。外科医にトレーニング及び手術中のパフォーマンスのための自動化された意思決定支援ツールを装備することにより、全ての個体群に対して提供する介護の質を向上させるための介入として、手術室をターゲットにする。
図1は、手術意思決定支援に用いられるシステム100の一例を示す。当該システム100は、患者の手術過程を監視するように位置決めされる少なくとも1つのセンサ102を含む。そのため、センサは、ビデオカメラ(可視又は赤外線範囲内)、手術中の複数の時点で手術チームからコメントを受け取るためのマイク又は他の入力デバイス、手術過程に関連する外科医又は機器に設けられる加速度計又は無線周波数識別(RFID)デバイス、手術中の結像技術、例えば光干渉断層像、コンピュータ断層撮影、X線撮像、手術過程で使用される他のシステム、例えば麻酔システムからのセンサ測定値、及び患者の生体特徴のパラメータのセンサ、例えば血圧計、体内圧力センサ、パルスオキシメータ及び心電計を含む。センサデータは、意思決定支援コンポーネント110に提供される。示される例では、意思決定支援コンポーネント110は、非一時的なコンピュータ読み取り可能な媒体112に記憶され、関連するプロセッサ114によって実行される機器実行可能な命令として実現される。しかし、理解されるように、意思決定支援コンポーネント110は、代替可能に専用ハードウェア又はプログラマブルロジックとして実現することができ、或いは非一時的なコンピュータ読み取り可能な媒体112は、複数の(操作可能に接続される)非一時的なコンピュータ読み取り可能な媒体を含むことができ、これらの読み取り可能な媒体は、それぞれローカルにプロセッサ114に接続又はネットワーク接続を介して接続されている。
非一時的なコンピュータ読み取り可能な媒体112に記憶された実行可能な命令は、センサインターフェース122(少なくとも1つのセンサ102からのデータを受信、調整する)、ユーザインターフェース124、エージェント126及びモデル130を含む。モデル130は、第1組の状態132(本明細書で「手術状態」と呼ばれる)を通って進む手術過程を表す。この組の手術状態132は、例えば、人間の専門家によって事前に選択されるか、又はモデル130のトレーニング中にノンパラメトリック推論として学習されることができる。このモデルは、第2組の状態133(本明細書で「ワールド状態」と呼ばれる)である患者及び環境をさらに表す。ワールド状態133は、患者状態の説明(例えば、炎症、出血、異常な解剖構成など)並びに患者、手術過程を実施する医療従事者(外科医を含む)及び手術過程が行われる環境に関する付加情報を含むことができる。手術状態は、1組のアクション134によってつながっており、この組のアクション134は、外科医が採用可能なアクションを表す。具体的に、上記モデルでは、外科医は、1組の学習した遷移確率135からの1つの所定の遷移確率で1つの手術状態から他の手術状態に遷移するように、アクションを取ることができる。
1つの与えられた手術状態に入ることは、システムのワールド状態に影響を及ぼすことができ、これは、モデル130でこれらの状態間の相互作用を確率的に定義する1組のエフェクタ136で表される。特定のアクションの手術状態とエフェクタ136(特定の手術状態のワールド状態間の遷移を表す)との間で遷移することを支配する遷移確率135は、以前に手術で生成されたデータから確定することができる。各ワールド状態と手術状態との組み合わせは、報酬関数137を介して、特定の報酬にマッピングすることができ、これは、これらの以前の手術からのデータが与えられた場合に、手術過程がこの状態の組み合わせにあることが望ましいことを反映している。報酬関数137は、現在の患者状態及び手術状態を報酬にマッピングし、合併症または不完全な動作に対して負の報酬を与えるとともに、手術が正常に完了することに対して正の報酬を与える。最後に、この組の手術状態132のそれぞれは、1組の観測モデル138からの1つの関連する観測モデルによって表され、上記観測モデル138は、1つの特定の手術状態が与えられた場合に、センサ102から観測結果を受信する可能性を表す。
エージェント126は、上記システムに関連する1つ又は複数のセンサによって提供される観測結果から現在の手術状態及びワールド状態を推定する。現在の状態の推定は確率的であり、従って、現在の状態は、信念状態として推定され、複数の手術状態のそれぞれについて、手術過程が手術状態である可能性を表すことが理解されるであろう。一例では、センサインターフェース122は、判別パターン識別システム140、例えば、サポートベクターマシン又は人工ニューラルネットワーク(例えば、長期短期記憶及びゲート付き回帰型ユニットなどの回帰型ニューラルネットワーク、畳み込みニューラルネットワーク及びカプセルネットワーク)を含むことができ、センサデータから観測結果を生成する。判別パターン識別システム140の出力は、観測結果としてエージェント126に提供することができる。
手術状態の分布を表す信念状態が確立されると、エージェントは、最大の報酬を提供する一連のアクションを確定することにより、手術中にどの手術状態及びワールド状態に入るかを予測することができる。これらのアクションをモデル化する際、外科医が手術状態について完全な知識(外科医は、彼自分又は彼女自分がどのアクションを実施したかを知っている)を持ち、患者状態について不完全な知識を持っていると想定される。実際に、ワールド状態に反映されているように、患者状態を誤って推定すると、手術過程でミスが生じる可能性がある。一例では、状態間の遷移は、報酬関数によって導かれる隠れマルコフ決定プロセス(hidden Markov Decision Process,hMDP)に類似する方式で強化学習プロセスを介してモデル化される。しかし、手術状態間の遷移の確率は、単に現在の手術状態ではなく、ワールド状態に依存するため、手術状態間の遷移のモデルは、真のマルコフ決定プロセスではないと理解されるであろう。選択的に、モデルを生成するために、逆強化学習プロセス又は模倣学習プロセスを使用することができる。別の例では、モデルは、回帰型ニューラルネットワーク(例えば、長期短期記憶及びゲート付き回帰型ユニット)で実現することができる、当該回帰型ニューラルネットワークは、ワールド状態を条件とする手術状態の遷移とワールド状態の遷移の確率(センサデータを条件とするかどうかにかかわらず)を表す。
センサ102が手術ビデオシステムである一例では、手術ビデオの分析は、手術と患者状態との双方を関連付けさせたエフェクタ136を用いて手術及び患者状態を推定することを含む。患者状態と外科医状態を明示的に処理することで、問題をより小さく、より管理可能な学習問題に細分化し、大規模な機械学習問題でしばしば遭遇する次元の呪いを回避することができる。未知の患者の状態は、その因果構造によって、その自身がサンプリングに適し、マルコフ連鎖モンテカルロベースの方法(Markov chain Monte Carlo based approach)は、学習モデル上の意思決定に適用することができる。ほとんどのビデオの場合、多くの患者の状態の表示が直接観測されないため、手術状態132とワールド状態133との両方を使用するハイブリッド構造は特に有用である。
エージェント126は、手術モデルをナビゲートし、複数のアクションのうちの少なくとも1つを選択し、センサインターフェースからの少なくとも1つの観測結果が与えられた場合に、期待される報酬を最適化する。従って、モデル130及び現在の手術状態とワールド状態から、エージェント126は、外科医が知覚する報酬及び時間の経過に伴う観測結果が与えられた場合に観測された観測結果の対数確率(log―probability)の和から、当該観測結果oが手術過程で受け取られる対数確率を予測することができる。これにより、観測結果oが手術過程で受け取られる当該対数確率は、以下のように記述することができる。
Figure 2020537205
(1)
但し、sは手術の異なる段階を表す上記組の手術状態S, 132のうちのメンバーであり、Aは上記組の遷移であり、Rは報酬関数137であり、Wは上記組のワールド状態133であり、
Figure 2020537205
は報酬関数に適用される割引率であり、また、
Figure 2020537205

Figure 2020537205
は重み係数である。t´に関する総和の用語は、ソフトな合理的なエージェントに対してキャプチャされた、エージェントの将来の軌道での期待される報酬の合計(割引が
Figure 2020537205
)を説明する。
現在のワールド状態及び手術状態が与えられた場合に、エージェント126は、手術過程が1つの与えられた状態(例えば、成功又は不成功の過程に関する手術状態)に入る可能性を予測することができる。従って、現在の手術状態及びワールド状態が与えられた場合に、手術過程が成功又は失敗で終了する可能性をリアルタイムに維持することができ、外科医のアクションが与えられた現在のモデルの場合、外科医又は手術スタッフのメンバーがに成功の確率が閾値を下回っているかどうかを知らせることが可能になる。同様に、特定の合併症又はリソースの使用に関連する1つ又は複数の状態に入る可能性を確定することができるため、合併症が発生する可能性又はリソースが使用される可能性を推定することができる。さらに、与えられた手術状態及びワールド状態について、エージェント126は、どのアクションが最適な報酬を生み出せるかを確定することができ、また、これに応じて、適切なガイダンスを確定して外科医に提供することができる。
ユーザインターフェース124は、適切な出力デバイス142、例えばビデオモニタ、スピーカ又はネットワークインターフェースを介してエージェントによって生成された予測結果を人間に伝達する。予測結果は、例えば、複数のアクションのうちの1つの選択されたアクション、上記手順の過程で1つの選択された手術状態に入る可能性及び関連する出力デバイスに対して予想される最終のワールド状態を含むことができる。手術の意思決定をガイダンスするために、予測結果を外科医に直接提供することができると理解されるであろう。例えば、別の放射線画像がない場合に合併症又は他のマイナスの結果を予測すると、適切な画像が得られるまで待機するよう外科医にアドバイスすることができる。
一実施形態では、複数の手術状態132及びワールド状態133は、対応するリソースに関連付けることができる。例えば、エージェント126は、外科手術のある時点で放射線画像が必要である手術状態132に入ると確定した場合、必要なデバイスを要求するために、ユーザインターフェース124は、手術チームのメンバー又は手術過程が実施される施設にいる別の個体にメッセージを送信することができる。類似的に、エージェントが予想される進行とは異なる手術状態の進行を予測する場合、ユーザインターフェース124は、手術室で追加の時間をスケジューリングするために手術が行われる施設のコーディネーターにメッセージを送信することができる。従って、システム100は、あまり一般的ではない手術過程又はより一般的な外科過程における異常な提示において経験の少ない外科医を支援するだけでなく、手術施設全体にわたって、より効率的にリソースを割り当てることができる。
図2は、図1のシステムで使用され得るモデル200の一例の一部を示す。モデル200の図示される部分は、複数の手術状態202〜209及び複数のワールド状態A〜Eを含む。ワールド状態A〜Dは、それぞれ手術過程を実施する外科医の属性を表し、当該属性は、外科医が手術過程の初期段階で取ったアクション又はより具体的に手術過程で入った外科手術状態から確定することができる。示される例では、モデル200は、腹腔鏡下胆嚢摘出術を対象としているが、一般的な原理は、様々な手術過程に適用することができると理解されるであろう。
この例では、第1ワールド状態Aは、外科医が手術過程で覚醒した閾値レベルで行動していることを表し、第2ワールド状態Bは、外科医が以前の手術状態で解剖学的知識の閾値レベルを示したかどうかを表し、第3ワールド状態Cは、手術の前期段階で外科医が加えた力が大き過ぎるかどうかを表し、そして、第4ワールド状態Dは、一般的に経験不足又は腹腔鏡検査の熟練度の欠如に起因して、注目される解剖構造の露出が不十分であることを表す。これらのワールド状態A〜Dは、バイナリであるが、当該モデルも外科医自身もこれらの状態について完全な知識を持っていないため、当該モデルは、特定のワールド状態の有無を確率的に推定すると理解されるであろう。
示される第1手術状態202(その中で、嚢胞管と総胆管の分離を強化するために構造(部材)を位置決める)から、外科医は、手術のこの段階に関連するアクション、具体的に構造(部材)を位置決めることを完了することができ、第2手術状態203に進む。しかし、適切に実施されれば、このアクションは、合併症なしに手術を進めるだけであり、そのため、このアクションが与えられた場合に第2手術状態203に進む可能性は確率Pであると理解されるであろう。このアクションを正確に推定する具体的な確率は、上述した外科医の属性の関数であり、そのため、当該確率は、実際にこれらのワールド状態の関数P(A,B,C,D)である。類似的に、このアクションが合併症なしに手術を次の手術状態に進められない可能性は1−P(A,B,C,D)である。
確率1−P(A,B,C,D)で、第1手術状態202で取られるアクションは、第3手術状態204をもたらし、これは、解剖学的構造への損傷を表す。様々な損傷が可能であるが(それぞれの損傷は確率Piで表される)、モデルの示される部分は第4手術段階205で胆嚢(GB)損傷のみが含まれる。このような損傷によって、胆汁は、第5手術段階206であふれ出る。このとき、外科医は、第6手術段階207で穴をクリップするために、アクションを取ることができ、又は第7手術段階208で穴を掴む(grasp)ことができる。外科医がこの意思決定をモデル化する際に、第5ワールド状態Eは、関連的になり、それは、胆嚢における穴の位置を表す。最初の4つのワールド状態A〜Dと異なり、ワールド状態Eは、患者の状態をモデル化し、この違いを表すために陰影付きで表示される。しかし、ワールド状態が表す手術環境の基本部分に関係なく、ワールド状態は、モデルによって同様に扱われると理解されるであろう。従って、モデルは、手術が確率P(E)で第6手術状態207に進み、手術が確率1―P(E)で第7手術状態208に進むことを予測する。行われた選択に関係なく、手術は、第8手術状態209に進み、こぼれた胆汁は吸引され、第2手術状態203に進む。
上述した構成及び機能的特徴を考慮すると、本発明の様々な態様による方法は、図3及び図4を参照してよりよく理解されるであろう。説明を簡単にするために、図3及び図4の方法は、連続的に実行されると表示、記載されるが、本発明によれば、いくつかの態様はここで示され、上述した異なる順番で発生し、及び/又は他の態様と同時に発生することが可能であるため、本発明は、示される順番に限定されないと理解されるであろう。さらに、本発明の一態様による方法を実現するために、示されるすべての特徴が必要とされるわけではない。図3及び図4の例示的な方法は、コンピュータプログラム製品又は他の形態の記憶装置などの非一時的コンピュータ読み取り可能な媒体に記憶可能な機器可読命令として実現することができる。図3及び図4の方法に対応するコンピュータ可読命令は、メモリからアクセスして、処理リソース(例えば、1つ又は複数のプロセッサコアなど)によって実行することもできる。
図3は、強化学習を介してトレーニングされたモデルを使用して手術意思決定を支援する方法300を示す。当該方法は、専用ハードウェア、非一時的コンピュータ読み取り可能な媒体に記憶され、関連するプロセッサによって実行される機器実行可能な命令又はこれらの組み合わせのいずれかを含むことができる電子システムによって実現されると理解されるであろう。実際には、この方法で使用されるモデルは、監督又は半監督学習プロセスを介して以前に実施された1組の手術過程からのセンサデータで既にトレーニングされている。
302において、患者に対する手術過程は、観測結果を提供するために、センサで監視される。実際には、センサは、ビデオカメラ、外科医又は手術過程に関連する器具に配置される加速度計、手術中の結像技術及び患者のバイオメトリックパラメーターを検出するセンサを含むことができる。示される例では、センサは、手術視覚システムである。示される例では、カメラ出力を判別パターン識別分類器(例えば、サポートベクターマシンや人工ニューラルネットワーク)に提供し、このパターン識別システムの出力を観測結果として用いることにより、手術視覚システムからの観測結果を取得する。従って、1つ又は複数の解釈パターン識別システムの選択に基づいて上記モデルに用いられる視覚モデルを変更することができる。
304において、観測結果から、現在の手術状態を複数の手術状態のそれぞれの確率を定義する信念状態として推定し、また、複数の手術状態のそれぞれは、手術の異なる段階を表す。複数の手術状態のそれぞれは、手術状態が与えられた場合にセンサインターフェースからの所定の観測結果の少なくとも1つの可能性を定義する観測関数によって表される。306において、現在の手術状態及び観測結果から、複数のワールド状態のうちの1つのワールド状態を推定する。この複数のワールド状態のそれぞれは、患者又は手術過程が実行される環境の状態を表す。一実施形態では、部分的に観察可能なマルコフ決定プロセスに用いられる数値学習アルゴリズムのランダムな変数と同様な方法で、1組の手術状態及び1組のワールド状態をサンプリングし、最適なポリシーを更新することにより、304及び306における状態推定を実施することができる。
308において、推定された手術状態、推定されたワールド状態及び手術モデルから、手術過程で入る少なくとも1つの手術状態を予測する。一実施形態では、モデルは、エージェントによって探索され、当該エージェントは、複数のアクションから一連のアクションを確定するために、手術過程を実施する外科医の意思決定をモデル化し、上記複数のアクションは、複数の手術状態間で遷移するために、外科医によって取ることができる。エージェントは、外科医が現在の手術状態の完全な知識を持っているが、現在のワールド状態の部分的な知識しか持っていないという仮定の下で、外科医の意思決定をモデル化する。一実施形態では、1つ又は複数の予測された状態は、手術過程でリソースが患者に必要とされる可能性を推定するために用いることができる。
310において、出力デバイスにおいて、予測された少なくとも1つの手術状態の出力が提供される。この出力には、例えば予測された手術結果を含むことができ、例えば、現在の手術状態及びワールド状態が与えられた場合に予想されて上記手順の期間で入る1つの手術状態又はワールド状態の形式で、手術過程に関連する施設でのユーザに対する外科医の推奨するアクション、モデルが与えられた場合の手術過程に最大の報酬を提供し、特定のリソースの要求に対して、結像デバイス又は手術室での予定時間を提供する。
図4は、手術モデルを提供するための方法400、例えば図3に示されるような手術意思決定を支援するのための方法を示す。図4に示す方法は、使用される方法及び複数の以前の手術の結果から得られた結果からモデルを形成することを可能にする。402において、複数の時系列の観測結果を提供するために、センサにおいて複数の手術過程が監視される。404において、手術の異なる段階を表す複数の手術状態のそれぞれについて、複数の時系列の観測結果から観測関数及び1組の遷移確率を学習する。観測関数は、手術状態が与えられた場合にセンサから与えられた観測結果の少なくとも1つの可能性を表す。この組の遷移の確率はそれぞれ、複数のワールド状態の1つの特定のワールド状態及び複数のアクションの1つの選択されたアクションのそれぞれが与えられた場合に1つの与えられた手術状態から別の手術状態に遷移する可能性を表す。
一例では、センサがビデオカメラである場合、観測結果は、視覚モデルを介して生成され、当該視覚モデルは、視覚データを解釈する判別分類器モデルとして実現される。このような解釈は間接的であってもよく、例えば、シーン内において特定の手術状態又はワールド状態に関連する対象を見つけることより、又は分類プロセスを介して手術状態又はワールド状態を直接確定することにより、行うことができる。一例では、視覚モデルは、畳み込みニューラルネットワーク、クラスタネットワーク又は回帰型ニューラルネットワークなどの人工ニューラルネットワークとして実現され、複数の時系列の観測結果でトレーニングされて手術状態を識別する。上記システムは、限られた量のデータと小型の計算リソースの下で学習することを目的とするため、観測結果を生成する特徴空間は、簡潔で代表的なものであり、不変性と表現性とのバランスを取るものとして選択される。
別の実施形態では、分類は、ビデオにおける複数の視覚的な手がかり(cue)から行われ、ローカル記述子およびグローバル記述子として広く分類され、外科医が手術の段階を推定する方法によって動機付けられる。これらの手がかりは、1つの特徴空間を定義するために用いられ、この特徴空間は、変動の主軸及び手術状態を特定する他の判別要因を捉え、そして、定義される特徴空間を含む1組の特徴で判別分類器をトレーニングすることができる。
手がかりは、ポジティブおよびネガティブ画像のトレーニング画像データベースから生成された色指向の視覚的手がかりを含む。他のいくつかのプロパティと組み合わせて色に依存する特徴を判別するために、単一のRGB/HSVチャネルの他の記述子カテゴリを用いて次元を増やすことができる。ピクセル値は、特徴として直接使用することもできる。RGB/HSVコンポーネントは、ローカル記述子(例えば、カラー値)とクローバル記述子(例えば、カラーヒストグラム)。臓器と器具の相対位置も重要な視覚的手がかりである。高速化ロバスト特徴(speeded―up robust features,SURF)プロセスを介して生成されたキーポイントの位置は、キーポイントを中心とするガウスサーフェス(Gaussian surface)の8×8グリッドサンプリングでエンコードすることができる。ガウスの分散はキーポイントの空間「影響領域」を定義する。形状は、手術状態を識別する視覚的な手がかりとして使用することができる器具を検出するために重要であるが、外科医の間で器具の好みが異なると、形状に基づく手がかりの価値が制限される。形状は、Viola―Jonesオブジェクト検出フレームワークなどの様々な技術でエンコードすることができ、図像分割を用いて器具を隔離させ、人工3Dモデルと照合し、その他の方法を使用することができる。ローカルフレーム記述子の場合、標準SURF記述子をベースとして使用することができ、グローバルフレーム記述子の場合、順番付き勾配(histogram of ordered gradients,HOG)記述子のグリッドサンプリングヒストグラムと離散コサイン変換(discrete cosign transform,DCT)係数を追加することができる。テクスチャーは、狭い様々な色を示す傾向がある重要な臓器を区別するための視覚的手がかりである。テクスチャは、ハラリック(Haralick)記述子付きの共起行列を使用し、代表的なパッチをサンプリングして各パッチの視覚記述子ベクトルで評価すること及び他の方法で、抽出することができる。示される例では、分割に基づくフラクタルテクスチャ解析(Segmentation―based Fractal Texture Analysis ,SFTA)テクスチャ記述子が使用される。
最後に、拡張された記述子は、単一の固定次元フレーム記述子に組み合わせられる。そのために、バッグオブワード(bag of words,BOW)モデルを用いて特徴の次元数を標準化することができる。代表的なベクトル量子化(representative vector quantization,VQ)は、ローカル記述子のみを用いてフレームをサンプリングすることにより、計算される。そして、いずれかの1組のローカル記述子を固定VQ次元上の投影のヒストグラムとして表すことができる。そして、最終的な結合フレーム記述子は、BOWヒストグラムとクローバル記述子の他の次元で構成される。一実施形態では、最終的な結合フレーム記述子を含む特徴は、明らかに低い次元のデータセットに簡略化することができ、当該データセットは、完全なデータセットで取得された分類結果を取得する方法でデータを近似するコアセット(coreset)として表される。2016年3月15日にRusらに特許登録された米国特許第9,286,312でこの目的に用いられるコアセットを生成する方法を見出すことができ、この特許はは、参照により本明細書に組み込まれている。2017 IEEE International Conference on Robotics and Automation(2017年IEEEロボットと自動化国際会議文集)からのVolkovらのMachine Learning and Coresets for Automated Real―Time Video Segmentation of Laparoscopic and Robot―Assisted Surgery(腹腔鏡およびロボット支援手術の自動リアルタイムビデオセグメンテーション用の機械学習およびコアセット)で、観測結果の生成に使用される視覚モデルをトレーニングするための1つの例示的な実施形態を見出すことができ、この文章も参照により本明細書に組み込まれている。
この学習プロセスは、監督され得るか、又は半監督され得る。一例では、上記時系列の観測結果のそれぞれは、人間の専門家が関連する情報、例えば手術状態又はワールド状態を用いてラベル付けることができる。別の例では、いくつかの時系列の観測結果をラベル付けることで、パターン識別とエージェントのモデル化のトレーニングが可能となり、ラベル付けの例を専門家に優先的に分配し(アクティブ学習)、又は想定されたラベル付きの自動トレーニング(半監督学習)が可能となる。観測結果を手術状態でラベル付けると、各状態の観測関数は、ラベルが付けられた観測結果データからの各状態が与えられた場合に観測結果が受信される条件付き確率として容易に確定することができる。マルコフ決定プロセスに用いられるBaum―Welchアルゴリズムと類似する方法で、全体の手術状態とワールド状態でサンプリングすることにより、遷移確率と対応するアクションを特定することができる。
406において、複数の時系列の観測結果から1組のエフェクタを学習する。各エフェクタは、1つの特定の手術状態が与えられた場合に複数のワールド状態のうちの1つの与えられたワールド状態と複数のワールド状態のうちの別のワールド状態との間で遷移する可能性を表す。一例では、エフェクタは、ランダムな勾配上昇を用いて起こりえる潜在的な手術と患者状態をサンプリングすることにより、学習される。408において、関連する報酬関数を生成し、ワールド状態と手術状態の少なくとも2つの順番付けられたペアのそれぞれについて、それぞれの報酬値を定義する。これらの報酬値は、例えば、各手術過程の患者の結果を用いることにより、上記時系列の観測結果から学習するか、又は人間の専門家がこの分野の知識に基づき割り当てることができる。
判別可能な視覚モデルと手術状態の生成モデルとの組み合わせは、トレーニング段階においても、新たに着信するビデオストリームのオンライン処理及び手術状態の分類においても、大量の手術ビデオデータを適切に処理することができる。初期分類の結果は、強化学習を介して生成モデルをトレーニングするために用いられ、この生成モデルは、様々な手術状態、ワールド状態及びこれらの状態間の遷移を表す。これにより、生成モデルの効率的なトレーニングと、視覚モデルによって提供される観測結果に応じてエージェントによるリアルタイムな意思決定が可能となる。一実施形態では、手術状態及びワールド状態のそれぞれは、人間の専門家(例えば、与えられた手順において経験を有する外科医)によって選択される。又は、1つ又は複数の状態は、トレーニングプロセス中に定義することができる。例えば、状態は、トレーニングデータに基づき、ベイズのノンパラメトリック方法(Bayesian non―parametric method)を介して追加又は削除することができる。
図5は、例えば、コンピュータシステムにおいて実行されるコンピュータ実行可能な命令に基づく本明細書で上述したシステム及び方法を実現することができるコンピュータシステム500を示す。コンピュータシステム500は、1つ又は複数の汎用ネットワークコンピュータシステム、組み込み型コンピュータシステム、ルータ、スイッチ、サーバデバイス、クライアントデバイス、様々な中間デバイス/ノードおよび/または独立コンピュータシステムにおいて実現することができる。
コンピュータシステム500は、プロセッサ502及びシステムメモリ504を含む。デュアルマイクロプロセッサ及び他のマルチプロセッサアーキテクチャもプロセッサ502として用いることができる。例えば、GPU及び汎用GPUシステムは、トレーニング時またはオンライン実行時に可能な軌道及び信念状態の効果的なサンプリング、又はネットワークの前方および後方計算のために用いることができ、これは、これらの操作が高度に並列化可能であるためである。プロセッサ502及びシステムメモリ504は、様々なバスアーキテクチャのいずれかを使用するメモリバス又はメモリコントローラ、周辺バス及びローカルバスを含むいくつかのバス構造のいずれかによって接続することができる。システムメモリ504は、読み取り専用メモリ(ROM)506及びランダムアクセスメモリ(RAM)508を含む。基本的な入力/出力システム(BIOS)は、ROM506に常駐することができ、一般的に、コンピュータシステム500内における素子間で情報を伝達するのに役立つ基本ルーチン、例えばリセット又はパワーアップを含む。
コンピュータシステム500は、ハードディスクドライブ、磁気ディスクドライブ(例えば、リムーバブルディスクからの読み取りまたはリムーバブルディスクへの書き込み)及び光ディスク例えば、CD―ROM又はDVDディスクを読み取るため、又は他の光学媒体から読み取り、又は他の光学媒体に書き込むため)を含む、1つ又は複数のタイプの長期データ記憶装置510を含むことができる。長期データ記憶装置510は、ドライブインターフェース512によってプロセッサ502に接続することができる。長期データ記憶装置510コンポーネントは、コンピュータシステム500にデータ、データ構造及びコンピュータ実行可能な命令の不揮発性ストレージを提供する。オペレーティング・システム、1つ又は複数のアプリケーション・プログラム、プログラム・モジュール、およびプログラム・データを含む大量のプログラム・モジュールは、1つ又は複数のドライブ及びRAM508に記憶することができる。
ユーザは、キーボード又はポインティングデバイス(例えば、マウス)などの1つ又は複数の入力デバイス522を介して命令及び情報をコンピュータシステム500に入力する。これらの入力デバイス及び他の入力デバイスは、一般的にデバイスインターフェース524を介してプロセッサ502に接続される。例えば、デバイスインターフェースは、1つ又は複数のパラレルポート、シリアルポート、またはユニバーサルシリアルバス(USB)によってシステムバスに接続することができる。視覚表示装置又はプリンタなどの1つ又は複数の出力デバイス526も、デバイスインターフェース524を介してプロセッサ502に接続することができる。
コンピュータシステム500は、1つ又は複数のリモートコンピュータ530への論理接続(例えば、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN))を使用してネットワーク環境で動作することができる。所定のリモートコンピュータ530は、ワークステーション、コンピュータシステム、ルータ、ピアデバイスまたは他の一般的なネットワークノードであってもよく、また、典型的にコンピュータシステム500に関して説明された要素の多く又は全てを含む。コンピュータシステム500は、有線または無線のネットワークインターフェースカードまたはモデムなどのネットワークインターフェース532を介してリモートコンピュータ530と通信することができる。ネットワーク環境において、コンピュータシステム500又は他の部分に関して示されるアプリケーションプログラム及びプログラムデータは、リモートコンピュータ530に関連するメモリに記憶することができる。
上述したのは例である。もちろん、コンポーネント又は方法の全ての可能な組み合わせを説明することは不可能であるが、当業者は、多くのさらなる組み合わせおよび置換が可能であることを認識するであろう。従って、本開示は、添付の特許請求の範囲を含む、本出願の範囲内にあるそのようなすべての変更、修正、および変形を包含することが意図されている。本明細書で使用する場合、「含む」という用語は、限定はしないが含むことを意味し、「含むこと」という用語は、限定することなく含むことを意味する。用語「に基づく」という用語は、少なくとも部分的に基づくことを意味する。また、本開示又は特許請求の範囲に「1つ」、「1種」、「第1」又は「別の」要素又はそれらの同等物を記載する場合、1つ又は1つよりも多いこのような要素を含むと解釈されるべきであり、2つ又はより多くのこのような要素が必要もなく、除外もされない。

Claims (20)

  1. システムであって、
    患者の手術過程を監視するように位置決めされる少なくとも1つのセンサと、
    プロセッサと、
    手術の意思決定支援システムを提供するための機器実行可能な命令を記憶する非一時的コンピュータとを含み、
    前記機器実行可能な命令は、前記プロセッサによって実行されることで、
    少なくとも1つの前記センサからのデータを受信し、受信されたデータから観測結果を生成するセンサインターフェースと、
    それぞれが前記手術の異なる段階を表す複数の手術状態と、それぞれの手術状態に用いられ、前記手術状態が与えられた場合に前記センサインターフェースからの与えられた観測結果の少なくとも1つの可能性を表す観測関数と、前記複数の手術状態の状態間で遷移するように、外科医が採用可能な複数のアクションと、それぞれが前記患者、前記手術過程を実施する前記外科医を含む1組の医療従事者及び前記手術過程が実行される環境のうちの1つの状態を表す複数のワールド状態と、それぞれが1つの特定の手術状態が与えられた場合に1つの与えられたワールド状態と別のワールド状態の間で遷移する可能性を表す1組のエフェクタと、それぞれが、1つの特定のワールド状態と前記複数のアクションの1つの選択されたアクションのそれぞれが与えられた場合に1つの与えられた手術状態から別の手術状態へ遷移する可能性を表す1組の遷移確率と、少なくとも2つの順番付けられたペアのうちのそれぞれのペアについてそれぞれの報酬値を定義し、前記少なくとも2つの順番付けられたペアのうちのそれぞれのペアが前記複数の手術状態のうちの1つの手術状態及び前記複数のワールド状態のうちの1つのワールド状態を表す報酬関数とを含む、手術モデルと、
    前記センサインターフェースからの少なくとも1つの観測結果から、現在の手術状態及び現在のワールド状態を信念状態として推定するとともに、前記複数のアクションのうちの少なくとも1つを選択して、前記信念状態が与えられた場合に期待される報酬を最適化するエージェントと、
    前記複数のアクションのうちの選択された少なくとも1つ、前記手術過程で選択された手術状態に入る可能性及び予想される最終のワールド状態のうちの1つを関連する出力デバイスに提供するユーザインターフェースと、
    前記複数のアクションのうちの選択された少なくとも1つ、前記手術過程で選択された手術状態に入る可能性及び予想される最終のワールド状態のうちの前記1つを、人間が理解できる形態でユーザに提供する前記出力デバイスと、を提供することを特徴とするシステム。
  2. 前記少なくとも1つのセンサは、ビデオのフレームをキャプチャするカメラを備え、前記センサインターフェースは、前記ビデオのフレームにおけるオブジェクトを識別するように配置されるパターン識別分類器を備えることを特徴とする請求項1に記載のシステム。
  3. 前記パターン識別分類器は、サポートベクターマシン、回帰型ニューラルネットワーク、畳み込みニューラルネットワーク、及びカプセルネットワークのうちの1つであることを特徴とする請求項2に記載のシステム。
  4. 前記出力デバイスは、ネットワークインターフェースを含み、前記ネットワークインターフェースは、選択された手術状態に入る可能性が閾値を上回ることに応じて、前記手術過程の手術チームのメンバーに関連するデバイスへ要求を送信することにより、前記手術過程のために追加のリソースを準備するように前記メンバーに対して指示することを特徴とする請求項1に記載のシステム。
  5. 前記出力デバイスは、前記予想される最終のワールド状態に応じて、前記手術過程に関連する手術の計画の変更を助言するように、前記外科医に警告を提供することを特徴とする請求項1に記載のシステム。
  6. 前記外科医が現在の手術状態の完全な知識を持っているが、現在のワールド状態の部分的な知識しか持っていないという仮定の下で、前記エージェントは、前記外科医が一連の前記複数のアクションを確定する意思決定をモデル化することにより、少なくとも1つのアクションを選択することを特徴とする請求項1に記載のシステム。
  7. 方法であって、
    観測結果を提供するように、患者の手術過程をセンサにおいて監視することと、
    前記観測結果及び複数の手術状態のそれぞれに用いられる観測関数から、現在の手術状態を前記複数の手術状態のそれぞれの確率を定義する信念状態として推定し、前記複数の手術状態のそれぞれが、手術の異なる段階を表し、前記観測関数が、前記手術状態が与えられた場合に前記センサインターフェースから与えられた観測結果の少なくとも1つの可能性を表すことと、
    前記現在の手術状態と前記観測結果から、複数のワールド状態のうちの1つのワールド状態を推定し、前記複数のワールド状態のそれぞれが、前記患者及び前記手術過程が実行される環境のうちの1つの状態を表すことと、
    推定された手術状態、推定されたワールド状態及びモデルから、前記手術過程中で入る少なくとも1つの手術状態を予測することと、
    関連する出力デバイスにおいて、予測された少なくとも1つの手術状態を表す出力を提供することとを含むことを特徴とする方法。
  8. 前記方法は、予測された少なくとも1つの手術状態から前記患者に必要とされる与えられたリソースの可能性を推定することをさらに含み、前記出力を提供することは、前記与えられたリソースに対する要求を前記手術過程に関連する機関でのユーザに送信することを含むことを特徴とする請求項7に記載の方法。
  9. 前記出力を提供することは、予測された少なくとも1つの手術状態が与えられた場合に推奨アクションを前記外科医に伝えることを含むことを特徴とする請求項7に記載の方法。
  10. 前記観測結果を提供するために、患者の手術過程を前記センサにおいて監視することは、前記センサからのデータを判別パターン識別分類器に提供することで前記観測結果を分類出力として提供することを含むことを特徴とする請求項7に記載の方法。
  11. 前記複数のワールド状態のうちの少なくとも1つは、前記患者の身体状況を表すことを特徴とする請求項7に記載の方法。
  12. 前記複数のワールド状態のうちの少なくとも1つは、前記手術過程を実行する医療専門家の属性を表すことを特徴とする請求項7に記載の方法。
  13. 前記方法は、前記モデルを提供することをさらに含み、前記モデルを提供することは、
    複数の時系列の観測結果を提供するために、複数の手術過程を監視することと、
    前記複数の時系列のそれぞれを注釈することにより、それぞれの観測結果が、対応する手術状態及び1組のワールド状態に関連付けられるようにすることと、
    注釈された複数の時系列から、1組の遷移確率、1組のエフェクタ及び複数の手術状態のそれぞれに用いられる観測関数のそれぞれをを学習し、それぞれの前記遷移確率が、1つの特定のワールド状態及び複数のアクションのうちの選択されたアクションが与えられた場合に1つの特定の手術状態から別の手術状態に遷移する可能性を表し、それぞれの前記エフェクタが、1つの特定の手術状態が与えられた場合に1つの特定のワールド状態と別のワールド状態との間で遷移する可能性を表し、前記観測関数が、前記手術状態が与えられた場合に前記センサインターフェースからの与えられた観測結果の少なくとも1つの可能性を表すことと、
    関連する報酬関数を生成し、前記報酬関数が少なくとも2つの順番付けられたペアのうちのそれぞれのペアについてそれぞれの報酬値を定義し、前記少なくとも2つの順番付けられたペアのうちのそれぞれのペアが前記複数の手術状態のうちの1つの手術状態及び前記複数のワールド状態のうちの1つのワールド状態を表すことを特徴とする請求項7に記載の方法。
  14. モデルを提供するための方法であって、
    複数の時系列の観測結果を提供するために、センサにおいて複数の手術過程を監視することと、
    前記複数の時系列の観測結果から、手術過程の異なる段階を表す複数の手術状態のそれぞれについて、観測関数及び1組の遷移確率を学習し、前記観測関数が、前記手術状態が与えられた場合に前記センサから与えられた観測結果の少なくとも1つの可能性を表し、それぞれの前記遷移確率が、複数のワールド状態の1つの特定のワールド状態及び複数のアクションの選択されたアクションのそれぞれが与えられた場合に、1つの与えられた手術状態から別の手術状態に遷移する可能性を表すことと、
    前記複数の時系列の観測結果から、1組のエフェクタを学習し、それぞれの前記エフェクタが、1つの特定の手術状態が与えられた場合に、前記複数のワールド状態の1つの与えられたワールド状態と前記複数のワールド状態の別のワールド状態との間で遷移する可能性を表すことと、
    関連する報酬関数を生成し、前記報酬関数が、少なくとも2つの順番付けられたペアのうちのそれぞれのペアについてそれぞれの報酬値を定義し、前記少なくとも2つの順番付けられたペアのうちのそれぞれのペアが前記複数の手術状態のうちの1つの手術状態及び前記複数のワールド状態のうちの1つのワールド状態を表すこととを含むことを特徴とする方法。
  15. 前記方法は、
    観測結果を提供するために、患者の手術過程を前記センサにおいて監視することと、
    前記観測結果及び観測関数から、現在の手術状態を、複数の手術状態のそれぞれの確率を定義する信念状態として推定し、前記観測関数が、前記手術状態が与えられた場合に前記センサインターフェースからの与えられた観測結果の少なくとも1つの可能性を表すことと、
    前記現在の手術状態から複数のワールド状態のうちの1つのワールド状態を推定することと、
    推定された手術状態、推定されたワールド状態及びモデルから、前記手術過程中に入る少なくとも1つの手術状態を予測することと、
    関連する出力デバイスにおいて、予測された少なくとも1つの手術状態を表す出力を提供することとをさらに含むことを特徴とする請求項14に記載の方法。
  16. 前記方法は、前記複数の時系列のそれぞれを注釈することにより、それぞれの観測結果が、前記複数の手術状態のうちの1つの対応する手術状態及び前記複数のワールド状態の1つのワールド状態に関連付けられるようにすることをさらに含むことを特徴とする請求項14に記載の方法。
  17. 前記複数の時系列のそれぞれを注釈することは、前記センサからのデータをパターン識別システムに提供することを含むことを特徴とする請求項16に記載の方法。
  18. 前記複数の手術状態のうちのそれぞれ及び前記複数のワールド状態は、人間の専門家によって選択されることを特徴とする請求項14に記載の方法。
  19. 前記複数の手術状態のうちの少なくとも1つは、エキスパートシステムによって前記複数の時系列の観測結果から生成されることを特徴とする請求項14に記載の方法。
  20. 前記センサはカメラであり、かつ前記複数の時系列の観測結果のうちのそれぞれは、前記複数の手術過程のうちの1つの手術過程のビデオを含むことを特徴とする請求項14に記載の方法。
JP2020510594A 2017-08-23 2018-08-23 意思決定理論モデルを用いた手術の意思決定支援 Ceased JP2020537205A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762549272P 2017-08-23 2017-08-23
US62/549,272 2017-08-23
PCT/US2018/047679 WO2019040705A1 (en) 2017-08-23 2018-08-23 SURGICAL DECISION SUPPORT USING A DECISION-MAKING MODEL

Publications (1)

Publication Number Publication Date
JP2020537205A true JP2020537205A (ja) 2020-12-17

Family

ID=65439632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020510594A Ceased JP2020537205A (ja) 2017-08-23 2018-08-23 意思決定理論モデルを用いた手術の意思決定支援

Country Status (4)

Country Link
US (1) US20200170710A1 (ja)
EP (1) EP3672496A4 (ja)
JP (1) JP2020537205A (ja)
WO (1) WO2019040705A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200273560A1 (en) 2019-02-21 2020-08-27 Theator inc. Surgical image analysis to determine insurance reimbursement
KR102572006B1 (ko) 2019-02-21 2023-08-31 시어터 인코포레이티드 수술 비디오의 분석을 위한 시스템 및 방법
US20210313050A1 (en) 2020-04-05 2021-10-07 Theator inc. Systems and methods for assigning surgical teams to prospective surgical procedures
FR3111463B1 (fr) * 2020-06-12 2023-03-24 Univ Strasbourg Traitement de flux vidéo relatifs aux opérations chirurgicales
US11710559B2 (en) * 2021-08-21 2023-07-25 Ix Innovation Llc Adaptive patient condition surgical warning system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197159A (ja) * 1998-01-13 1999-07-27 Hitachi Ltd 手術支援システム
JP2007328507A (ja) * 2006-06-07 2007-12-20 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080114212A1 (en) * 2006-10-10 2008-05-15 General Electric Company Detecting surgical phases and/or interventions
US20110020779A1 (en) * 2005-04-25 2011-01-27 University Of Washington Skill evaluation using spherical motion mechanism
US20070172803A1 (en) * 2005-08-26 2007-07-26 Blake Hannaford Skill evaluation
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
US20080140371A1 (en) * 2006-11-15 2008-06-12 General Electric Company System and method for treating a patient
US20090326336A1 (en) * 2008-06-25 2009-12-31 Heinz Ulrich Lemke Process for comprehensive surgical assist system by means of a therapy imaging and model management system (TIMMS)
DE102008034234A1 (de) * 2008-07-23 2010-02-04 Dräger Medical AG & Co. KG Medizinischer Arbeitsplatz mit integrierter Unterstützung von Prozessschritten
US10541048B2 (en) * 2010-02-18 2020-01-21 Siemens Healthcare Gmbh System for monitoring and visualizing a patient treatment process
EP2636034A4 (en) * 2010-11-04 2015-07-22 Univ Johns Hopkins SYSTEM AND METHOD FOR ASSESSING OR ENHANCING CAPACITIES IN NON-INVASIVE SURGERY
EP2637594A4 (en) * 2010-11-11 2015-05-06 Univ Johns Hopkins ROBOT SYSTEMS FOR HUMAN MACHINE COLLABORATION
JP2013058120A (ja) * 2011-09-09 2013-03-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US9946844B2 (en) * 2013-02-22 2018-04-17 Cloud Dx, Inc. Systems and methods for monitoring patient medication adherence
US20160120691A1 (en) * 2013-05-10 2016-05-05 Laurence KIRWAN Normothermic maintenance method and system
JP7031953B2 (ja) * 2015-11-05 2022-03-08 360 ニー システムズ プロプライエタリー リミテッド 膝手術の患者の管理
US9582781B1 (en) * 2016-09-01 2017-02-28 PagerDuty, Inc. Real-time adaptive operations performance management system using event clusters and trained models

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11197159A (ja) * 1998-01-13 1999-07-27 Hitachi Ltd 手術支援システム
JP2007328507A (ja) * 2006-06-07 2007-12-20 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Also Published As

Publication number Publication date
EP3672496A1 (en) 2020-07-01
EP3672496A4 (en) 2021-04-28
US20200170710A1 (en) 2020-06-04
WO2019040705A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
JP2020537205A (ja) 意思決定理論モデルを用いた手術の意思決定支援
US11515030B2 (en) System and method for artificial agent based cognitive operating rooms
Nguyen et al. $\mathtt {Deepr} $: a convolutional net for medical records
Lalys et al. Surgical process modelling: a review
JP7406758B2 (ja) 人工知能モデルを使用機関に特化させる学習方法、これを行う装置
CN111369576B (zh) 图像分割模型的训练方法、图像分割方法、装置及设备
EP3641635A1 (en) Dynamic self-learning medical image method and system
JP7374202B2 (ja) 機械学習システムおよび方法、統合サーバ、プログラムならびに推論モデルの作成方法
Franke et al. Multi-perspective workflow modeling for online surgical situation models
Forestier et al. Multi-site study of surgical practice in neurosurgery based on surgical process models
Lea et al. Surgical phase recognition: from instrumented ORs to hospitals around the world
Nakawala et al. Development of an intelligent surgical training system for Thoracentesis
EP4309075A1 (en) Prediction of structures in surgical data using machine learning
Tran et al. Phase segmentation methods for an automatic surgical workflow analysis
Pérez-García et al. Transfer learning of deep spatiotemporal networks to model arbitrarily long videos of seizures
Guo et al. Current applications of artificial intelligence-based computer vision in laparoscopic surgery
US20240112809A1 (en) Interpretation of intraoperative sensor data using concept graph neural networks
Tao et al. LAST: LAtent space-constrained transformers for automatic surgical phase recognition and tool presence detection
US20230334868A1 (en) Surgical phase recognition with sufficient statistical model
Nwoye Deep learning methods for the detection and recognition of surgical tools and activities in laparoscopic videos
EP4356290A1 (en) Detection of surgical states, motion profiles, and instruments
Kumar et al. Vision-based decision-support and safety systems for robotic surgery
Torres et al. Deep EYE-CU (decu): Summarization of patient motion in the ICU
Allioui et al. Advanced brain imaging based on game theory for an automated Alzheimer diagnosis
Priya et al. Smart Wearable for Pulmonary Fibrosis Patient Monitoring with Oxygen Saturation Prediction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221202

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20230421