JP7453693B2 - 外科トレーニング装置、方法及びシステム - Google Patents

外科トレーニング装置、方法及びシステム Download PDF

Info

Publication number
JP7453693B2
JP7453693B2 JP2021502919A JP2021502919A JP7453693B2 JP 7453693 B2 JP7453693 B2 JP 7453693B2 JP 2021502919 A JP2021502919 A JP 2021502919A JP 2021502919 A JP2021502919 A JP 2021502919A JP 7453693 B2 JP7453693 B2 JP 7453693B2
Authority
JP
Japan
Prior art keywords
surgical
model
trainee
training system
surgical training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021502919A
Other languages
English (en)
Other versions
JP2021531504A (ja
Inventor
ストーン、ジョナサン
グリフィス、スティーブン
ストーン、ネルソン、エヌ.
Original Assignee
シミュレーテッド イナニメイト モデルズ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シミュレーテッド イナニメイト モデルズ エルエルシー filed Critical シミュレーテッド イナニメイト モデルズ エルエルシー
Publication of JP2021531504A publication Critical patent/JP2021531504A/ja
Application granted granted Critical
Publication of JP7453693B2 publication Critical patent/JP7453693B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/30Anatomical models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Algebra (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Medicinal Chemistry (AREA)
  • Mathematical Optimization (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pulmonology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Robotics (AREA)
  • Optics & Photonics (AREA)

Description

本発明は、外科トレーニングのための装置、方法及びシステムに関する。より詳細には、本発明は、戦略的に配置されたセンサーをもつ解剖学的モデルを採用する、新規のシミュレートされた外科トレーニング装置、方法及びシステムに関する。センサーを装備されたモデルは、シミュレートされた外科トレーニング・セッション中の理想的な時間に訓練生に指導付きの指示と的を絞ったカリキュラム・コンテンツとを供給するために拡張現実(augmented reality)ヘッドセット及びコンピュータ・ソフトウェアとともに使用される。
多くの外科訓練生は、現在、代替手段が不十分であることにより、手術室において生身の患者で訓練を行う。このことは、理想的とは言えない患者の転帰、及び不必要に長引く手術時間につながり得る。研究により、手術時間が長くなると、患者の危険が高まり、治療費が増加することがわかっている。
外科ファントム・モデルでのトレーニングが知られているが、改善された外科トレーニング装置、方法及びシステムが依然として必要である。特に、外科トレーニングは、学生が運動課題(motor task)を終わらせている間、視覚キューと音声キューの両方を必要とする。現在、この指導を行う唯一の手段は、生身の経験を積んだ医師によるトレーニング・セッションによるものである。残念ながら、外科医の時間的制約により、実物によるトレーニングは、実際の患者の症例中にのみ実現可能であり、したがって、外科的な非効率により、危害を引き起こすか、又は過大なコストを生じる可能性がある。
外科訓練生が適切な外科技法と意思決定とを身につけることを助けるために、訓練生が、拡張現実ヘッドセットと、解剖学的モデル中又はそれに隣接するセンサーによって感知される訓練生の行為に相関させられた的を絞った外科コースワーク・カリキュラムの供給とによって、現実的な様式で解剖学的モデル上で外科技能を実践することを可能にする、外科トレーニング装置、方法及びシステム。
本発明は、さらに、別の態様では、拡張現実ヘッドセット(AR:augmented reality)又は他の人間コンピュータ・インターフェース(HCI:human computer interface)を通して、一体化されたデジタル・カリキュラム・コンテンツをもつ、センサーを装備された外科ファントム・モデルを与えることによって、上記のニーズに対処する。
本発明はまた、また別の態様では、ユーザが自立的なトレーニングを実行することを可能にする、外科ファントムと、外科ツールと、コンピュータ・ソフトウェアとの間の情報転送を提供する。
またさらなる態様では、本発明は、カリキュラム・コンテンツの供給を促すために信号を放出する外科トレーニング・ファントムを提供する。
信号は、たとえば、トランスデューサ、ビデオ画像及び/又はひずみゲージなど、好適な電子構成要素を使用してモデルから生成され得る。
信号の生成は、たとえば、
a)たとえば、提案された切開部位のマーキング、切開を行うこと、シミュレートされた出血の発生、シミュレートされた腫瘍の切除など、モデルにおける変化を感知したとき、
b)たとえば、ユーザの手及び/又は頭の動きなど、ユーザの動きを感知したとき、
c)身体マーキング・ペン、縫合針、持針器(needle driver)、腹腔鏡手術器械、吸引チップなど、外科用器具の使用を感知すること、及び/又は
d)手術野(surgical field)又は手順の過程において「外科医が見るもの」内の特定のビデオ視界(「FOV」)を感知すること
などの方法のいずれか1つ又は組合せによって開始され得る。
センサーからの信号(たとえば、トランスデューサ、可視及び不可視周波数を含む電磁スペクトル放出)は、たとえば、カメラ・ビジョン、Wi-Fi、Bluetooth、音、光、ワイヤード接続など、任意の望ましい通信モードを使用して、外科トレーニング・ソフトウェア・プログラムを実行するコンピュータに供給される。機械学習は、データを解析するため、そのデータから学習するため、及びそれが学習したことについてのインフォームド・デシジョン(informed decision)を行うために採用され得る。深層学習は、モデルが画像、テキスト又は信号から直接分類タスクを実行することをそこにおいて学習する機械学習の一種である。深層学習は、並列コンピュータによってリアルタイムで計算され得るニューラル・ネットワーク・アーキテクチャを使用して実装され得る。機械学習及び/又は深層学習は、ARヘッドセット・カメラ及び9自由度ヘッド/カメラ位置トラッカーからの信号及び画像、並びにシミュレートされた器官及び/又は外科用器具からの他の信号出力を使用して、物体を識別し、処理し、分類するために使用され得る。
信号は、コンピュータ外科トレーニング・ソフトウェア・プログラムによって解釈され、外科シミュレーション・トレーニング・ソフトウェア中に状態変化を引き起こし得る。
ソフトウェアは、外科ファントム・モデル・トレーニング・セッションの進捗に対応するチュートリアル及び「ハウツー」ガイドを訓練生に供給するようにプログラムされ得る。
また別の態様では、本発明は、外科モデル上でのトレーニング手順中に外科訓練生の特定の動作を検出し、検出された動作に応答して、対応するカリキュラム・コンテンツ及び/又は他の情報を訓練生に供給する、ARプラットフォームを提供する。ARヘッドセット、及び/又は、たとえば、外科用器具(腹腔鏡、内視鏡、関節鏡、顕微鏡など)からのビデオを含む何らかのビデオ又はカメラ・フィードは、「モデル・キュー」及び/又は「動きキュー」及び/又は「静止画/ビデオ・キュー」であり得る1つ又は複数の「キュー」を検出することが可能である。
「モデル・キュー」は、個別要素、又は、ARヘッドセットなどの「キュー受信機」によって検出可能である、モデル自体から発出する物理的状態である。モデル・キューの例は、限定はしないが、物理マーキング(たとえば、バーコード、又は見える若しくは見えないインクでの他のシンボル)、電子及び/又は光センサー、並びに/或いは外科モデルの表面内に埋め込まれるか又は外科モデルの表面に適用される任意の他の基準点(fiducial)を含む。
「識別(ID:identification)及び/又は動きキュー」(以下「ID動きキュー」)は、ARヘッドセットによって検出可能である、物理的存在(定常状態)、及び/又は訓練生による動き(たとえば、目、頭、手、腕の動き)及び/又は外科用器具による動きの検出を含む。この点について、訓練生の身体部位及び/又は(たとえば、クリップ、スポンジ及びガーゼなど、外科において使用され得る補助アイテムを含む)外科用器具は、それの存在(ID)及び/又は動きの検出を可能にする、適用された(たとえば、一時的に粘着した)センサー及び/又は他の基準を与えられ得る。動き検出は、コンピュータ化されたナビゲーション・システムによって追跡可能にされることもあり、されないこともある。
「静止画/ビデオ・キュー」は、(たとえば、腹腔鏡、ロボットなど)外科カメラからの画像キャプチャ及びビデオ・フィードを含む。ARヘッドセットはまた、外科システム・トレーニング・ソフトウェア・プログラムへの入力を作成する画像キャプチャ及びビデオ・フィード機能を有し得る。
キュー受信機によるモデル・キュー及び/又はID動きキュー及び/又は静止画/ビデオ・キューの検出は、(キュー受信機がワイヤード又はワイヤレスでそれに接続されている)外科トレーニング・システム・ソフトウェアが特定の外科トレーニング・モジュール又はセッションのコンテキスト内でモデルの特定の行為及び/又は解剖学的基準点として解釈するようにプログラムされている信号を生成する。
モデル・キューは、その特定のモデルのためのソフトウェア・プログラミングに対応する様式でモデルの中又は上に戦略的に配置される。より詳細には、ソフトウェアは特定の外科トレーニング・モジュールのためにプログラムされ得る。ソフトウェアは、したがって、その特定の外科トレーニング・モジュールのための成功した外科手術を示す、モデルに対する外科的行為の順序付けされた(及び、随意に、時間調整された)シーケンスを用いてプログラムされ得る。モデルの中又は上の1つ又は複数のモデル・キュー及び/又はID動きキュー及び/又は静止画/ビデオ・キューのタイプ及び配置は、特定の外科セッションのための外科的行為のプログラムされた順序付けされたシーケンスに相関させられる。訓練生が、ソフトウェア・プログラムにおいて識別された予想された外科的動作と一致していない、モデル上での外科的行為を行うと、ソフトウェアは、そのような逸脱を検出し、応答して、予想された外科プロトコルからの逸脱について訓練生に通知する。
カリキュラム・コンテンツ及び/又は他の情報は、自動的に生成され得、逸脱の検出時に及び/又はトレーニング・モジュールの終了時に訓練生に供給され得る。
プログラムされた順序付けされたシーケンス及び/又はモデル・キュー検出のタイミングにおける変化を検出することが可能であることのほかに、モデル・キュー及び/又は動きキュー及び/又は画像キャプチャ/ビデオ・キューは、そのトレーニング・モジュールのためのプロトコルに従っていないか、又は外科的行為のための外科的動作基準を満たしていない外科的行為(たとえば、切開のために間違った部位に身体マーキング・ペンでモデルにマーキングすることがモデル上で実行されること、切開の手際が悪いこと、切除、又は(モデル中にスポンジを放置するなど)外科用器具又は補助アイテムの不適当な配置を示す信号をソフトウェアに与え得る。
本システムは、したがって、検出されたモデル・キュー及び/又はID動きキュー及び/又は画像キャプチャ/ビデオ・キューに基づいて現在の外科トレーニング状態を検出し、応答して、対応するカリキュラム・コンテンツ及び/又は他の情報が外科訓練生に対して表示されるか又は他の方法で与えられ得る。ソフトウェアは、様々なキュー検出機能を開発するために、機械学習、深層学習、及び/又は強化学習を含む直接的視覚的検出アルゴリズムを用いてプログラムされ得る。
別の態様では、本発明は、外科トレーニング・モデル上での訓練生の進捗に対して適切に時間調整されたカリキュラム・コンテンツを供給するようにプログラムされたコンピュータ・ソフトウェアを提供する。ソフトウェアは、所与の外科トレーニング・セッション又はシナリオのための適切なコンテンツを選択するアルゴリズム・デシジョン・ツリーに基づく。ソフトウェア構造は、システムが、必要な場合、検出された入力の直後を含む、任意の所望の様式で訓練生へのコンテンツの供給の時間調整を行うことを可能にする。本システムは、トレーニング・セッション中に任意の間隔で訓練生による随意の再生を含むようにプログラムされ得る。
別の態様では、本発明は、訓練生によって検出された活動を合計し、訓練生によって取られる個々のステップ及び/又は外科トレーニング・モジュールの手順全体のための動作スコアを与える、コンピュータ・ソフトウェアを提供する。上記で説明したキューからの出力は、合計され得、たとえば、初心者と熟練者との間の動作の差に基づいて、機械学習によって解釈される。ソフトウェアはまた、動作スコアを計算するか、又は将来の動作を改善するために訓練生に追加の指示を与えるようにプログラムされ得る。
本発明の追加の目的、利点及び新規の態様は、一部は以下の説明に記載され、一部は、添付図とともに検討すれば、本発明を実施する人々に明らかになろう。
本発明の上述の及び他の特徴及び利点、及びそれらを達成する様式は、添付の図面とともに本発明の以下の説明を参照することによって明らかになり、より良く理解されよう。
外科トレーニング・システムの一実施例を利用する外科訓練生の実例を示す、本発明の一実施例の斜視図である。 キュー入力と、STSSと、STSSデータベースと出力とを示す、一実施例のフロー・チャート図である。 隣接する器官センサーの活動化出力の実例を含む、モデル・タイプ及び各モデル・タイプのためのトレーニング・オプションを示す、一実施例のフロー・チャート図である。 外科ファントム・モデルの実例の断片化された平面図である。 本発明の一実施例による、モデル上のマーキングを示す図2Aのビューである。 本発明の一実施例による、モデル上で外科訓練生によって使用するための外科用器具をさらに示す、図2Bに見られるモデルの断片化された平面図である。 本発明の一実施例による、切開を行う過程における外科用器具を示す図3Aのビューである。 本発明の一実施例による、切開から出るシミュレートされた体液(たとえば、血液、胆汁、尿など)を示す図3Bのビューである。 本発明の一実施例による、訓練生がモデルの上で外科用器具を保持しているモデル・キューを有する外科トレーニング・モデルの断片化された図である。 本発明の一実施例による、外科用器具によって適用されたセンサーの変形及び活動化を示す図4Aのビューである。 本発明の一実施例による、切除される過程におけるシミュレートされた腫瘍をもつ外科モデルの断片化された図である。 本発明の一実施例による、シミュレートされた腫瘍を有するヒト腎臓の外科モデルの断片化された平面図である。 本発明の一実施例による、シミュレートされた切除された腫瘍、及び腎動脈上に配置された仮止めクリップを示す図6Aのビューである。 本発明の一実施例による、外科トレーニング・プロセスの流れ図である。 本発明の一実施例による、外科トレーニング・プロセスの流れ図である。 本発明の一実施例による、ニューラル・ネットワークを使用した機械学習及び深層学習のためのコンピュータをトレーニングする流れ図である。 本発明の一実施例による、機械学習/深層学習を使用したリアルタイム物体/信号検出の流れ図である。 本発明の一実施例による、信号デシジョン・ツリー及びカリキュラム・コンテンツ配信の流れ図である。 本発明の一実施例による、検出された物体及び信号に基づく指導コンテンツの流れ図である。 本発明の一実施例による、画像タイムスタンプ及びログの流れ図である。 本発明の一実施例による、カリキュラム指導再生モードの流れ図である。
それの最も基本的な形態における外科トレーニング・システムは、外科モデルと、(必ずしも限定されるとは限らないが、たとえば、プロセッサ、メモリ、入出力インターフェース、グラフィック・ユーザ・インターフェース(GUI:graphic user interface)などを含む、通常のコンピュータ構成要素を有する)コンピュータと、モデル・キュー及び/又はID動きキュー及び/又は静止画/ビデオ・キューの形態のデータ入力を受信するための1つ又は複数の「キュー受信機」と、コンピュータ・プロセッサ上で動作する外科トレーニング・システム・ソフトウェア(「STSS」)とを含む。外科モデルは、任意の動物型又はヒト型に見られる器官及び/又は他の解剖学的構成要素であり得る。キュー受信機は、たとえば、ARヘッドセット、マイクロフォン、デジタル・カメラ、デジタル・ビデオ、電子センサー、リアルタイム・クロック、タッチスクリーン、コンピュータ・キーボード、ジョイスティック、マウス、トラックボール、画像スキャナ、グラフィックス・タブレット、オーバーレイ・キーボードのいずれか1つ又は組合せを含み得る。2つ以上のタイプのキュー受信機が同じデバイス(たとえば、ARヘッドセット)上に与えられ得る。キュー受信機は、受信したキューを、1つ又は複数の外科トレーニング・セッション又はモジュールを用いてプログラムされたSTSSに中継する。STSSは、キューを受信し、受信したキューに応答して、適切な出力を生成し、外科モデル上で外科手術を実行することを外科訓練生に教えるようにプログラムされる。
図1を参照すると、拡張現実(AR)ヘッドセット12を着用し、望ましい材料(たとえば、シリコーン、ヒドロゲルなど)であり得る外科モデル14上で動作している(すなわち、外科トレーニング・セッションを実行している)外科訓練生10が見られる。ARヘッドセット12は、以下の特徴又はそれらの等価物のいずれか1つ又は複数、しかし好ましくはすべてを含み得る。
シー・スルー・オプティクス付き1080p DLP投影ディスプレイ導波路
WiFi&Bluetooth接続性
8メガピクセル・カメラ
クワッド・コアARM CPU
右眼単眼鏡
ハプティック・フィードバック
ボイス制御
アンドロイド(登録商標)5 OS
ノイズ・キャンセリング・マイクロフォン
オン・ボード・ビデオ記録媒体
ARヘッドセット12は、たとえば、STSS19をダウンロードされたソフトウェア・アプリケーション(「アプリ」)として動作させるスマート・フォンの形態であり得るグラフィック・ユーザ・インターフェース(「GUI」)17を有するコンピュータにワイヤード又はワイヤレスで接続され得る。STSSはまた、「クラウド」21においてリモートでホストされ得、サービスとしてのソフトウェア(SaaS:Software as a Service)として訓練生に与えられ得る。タブレット、ラップトップ、デスク・トップ、仮想デスク・トップなど、STSSがインストールされ得るか、又はSaaSとしてアクセスされ得る任意の他のコンピュータ・タイプが使用され得る。STSS19は、デバイス17、モニタ13及び/又はARヘッドセット12上のログイン・スクリーンを訓練生に提示するようにプログラムされ得、訓練生は、後の取出し及び/又は再生のために訓練生の外科トレーニング・セッション・データを記憶する、パスワードで保護されたデータ・ファイルを有し得る。STSSは、21bにあるように他のサーバ及び/又はネットワークに接続し得、それによって、訓練生のSTSSファイルは、たとえば、訓練生の医学部サーバ上にホストされた訓練生の個人学生データ・ファイルに接続され得る。したがって、シミュレートされた外科トレーニング上で訓練生が費やした時間は、訓練生の履修単位又は他の目的でログされ得る。
STSS19は、たとえば、ボイス・コマンドによってか、又はデバイス17上のGUIを介して行われ得る、訓練生による選択のための1つ又は複数の異なる外科トレーニング・セッションを含むようにプログラムされ得る。外科トレーニング・モデル14は、ワイヤード又はワイヤレス接続によってコンピュータ17に接続された別個のバーコード・スキャナ23aによってか、又はコンピュータ17と一体のスキャナ23b(たとえば、スマート・フォン17のスキャナ・アプリ)によってか、又はモデル14上のバーコードを読み取り、それによって、訓練生がその上でトレーニングを望む外科モデル解剖学的タイプを識別するように動作可能な、その上で動作するSTSSアプリによって走査され得る、バーコードl4aなどを含み得る。STSS中にプログラムされた各外科モデル・タイプは、訓練生と関連付けられ得、モデル・タイプに適切である1つ又は複数の外科トレーニング・セッションを訓練生に表示する。たとえば、モデル・タイプが腎臓として識別され得、適合する外科トレーニング・セッション・オプションが、たとえば、(1)腫瘍切除、(2)腎結石除去、(3)血管破裂修復などとして、リスト中で(たとえば、メディア・インターフェース17、モニタ13及び/又はARヘッドセット12上で)訓練生に提示され得る。訓練生は、(たとえば、グラフィック・ユーザ・インターフェース(GUI)及びタッチスクリーン、キーボード、又はマウスを使用したマニュアル入力によって、並びに/或いは視覚(たとえば、アイ・トラッキング)及び/又はボイス・コマンドによって)所望の外科トレーニング・セッションを選択(入力)し得、STSSは、入力に応答して、STSSプログラムの訓練生が選定した外科トレーニング・セッションを起動するようにプログラムされる。選定されたトレーニング・セッションに応じて、以下でさらに説明するように、モデルのセンサーのいくつかの特徴がSTSSによって自動的に活動化され得る(が、必ずしもトリガされるとは限らない)。
上述のように、外科トレーニング・セッション中のARヘッドセット12などのキュー受信機によるコンピュータ入力は、モデル・キュー及び/又はID動きキュー及び/又は静止画/ビデオ・キューのいずれか1つ又は組合せの形態のキューを含み得る。様々なキュー入力は、それらがキュー受信機を介して受信されるとSTSSによって分析され、STSSは、応答して、対応するカリキュラム・コンテンツ及び/又は他の有用な情報(たとえば、外科的緊急事態が検出された、安全でない手順が実行された、プロトコルからのずれにより従うべきプロトコルが補正された又は置き換えられたなどの警告)の形態の出力を生成する。STSS出力は、ARヘッドセット12上の音声出力及び/又ディスプレイ、及び/又は手術トレーニング・ルーム中の別個のビデオ・モニタ13及び/又はスピーカー15を含む所望のフォーマットのいずれか1つ又は組合せにおいて与えられ得る。生成された音声出力は、たとえば、警告及び/又は口頭の指示の形態で訓練生に与えられ得る。したがって、この実施例では、訓練生は、トレーニング中(リアルタイム)の自身の検討のために、生成された出力を受信し、それにより、訓練生は、自身の動作が適正であるかどうか、一般的な改善の必要性にあり、及び/又は自身の動作の識別された問題を修正又はそれらに対処するために外科プロトコル自体に対して変更を実施する必要があるかどうかを理解し得る。生成された出力の形態及びコンテンツは、各特定の外科トレーニング・セッションのためにSTSS中にプログラムされ得る。コンテンツは、データベース11中に記憶された教育カリキュラムの形態であり得る。
図1Bを参照すると、STSSへの入力及び生成された出力の実例が見られ、訓練生の教室カリキュラム・コンテンツは、データベース11に記憶され、STSS19によってアクセス可能である。この実例では、訓練生が外科セッションのための切開深さのしきい値を超えた切開を行ったというキューが生成され、STSSによって受信されている。STSSは、データベース11から特定のカリキュラム・コンテンツを出力として生成するようにプログラムされる。この実例では、切開深さのしきい値を超えることは、解剖学課程2及び外科技法課程3に関係する行為である。これらは、したがって、ボックス25に見られるように出力として与えられ、訓練生は、次いで、切開を行う動作を改善するために、これらの課程をセッションの間又は後に読み取ることができる。
図1Cは、STSSプログラムがモデル・タイプの各々について複数の外科セッション選択肢を与え得る、モデル・タイプの走査された識別を示すボックス・ダイヤグラムを示す。外科トレーニング・システムは、各モデルが別個の解剖学的モデル・タイプである、2つ又はそれ以上のモデルを備え得る。ソフトウェア・トレーニング・プログラムは、したがって、各モデル・タイプに相関させられた別個の外科セッション・プログラムを含み得る。別個の外科セッション・プログラムは、少なくとも2つの代替外科セッション・タイプをさらに含み得る。訓練生は、外科セッションと、その特定のトレーニング・セッション中に利用されるであろうものとして識別されるそのモデルと外科セッションのためのセンサーのうちのいくつかとを(たとえば、インターフェース17を介して)選択する。たとえば、訓練生が腎臓のモデルを走査する場合、STSSは、この実例では「腫瘍切除」又は「生検」である、腎臓モデルのための利用可能な外科セッションのリストを提示する。訓練生は、(たとえば、インターフェース17を介して)モデル・トレーニング・セッションを選択すると、STSSにより選定されたセッションのためのプログラムが起動する。上述のように、外科モデル及びセッションは、特定の外科モデルと選定されたセッションとのために利用されるセンサーの一意のセットを有し得る。膀胱モデルの実例では、訓練生は経尿道的切除術又は結石除去トレーニング・セッションのいずれかを選択し得る。これらのセンサーは、その特定の外科セッションを実行することに関連するセンサーであるので、経尿道的切除術の選択は、センサーA及びD~Fを活動化(たとえば、存在する場合、センサーのファームウェアを介して電力を供給してそれらを「準備完了」状態に)し得る。訓練生が代わりに結石除去セッションを選択した場合は、この実例ではセンサーA~C及びEである、その特定の外科セッションに関連するセンサーのセットが活動化される。たとえば、選定されたモデルが、乳房、肋骨、肺及び心臓のモデルを含む胸のモデルである場合、訓練生には乳房再建及び血管形成の外科セッション選択肢が提示される。訓練生が乳房再建を選択した場合、肺センサーD及びF並びに乳房センサーK~Mを含む、その手順に関連するセンサーのセットが活動化される。隣接するモデル中のセンサーは、訓練生が誤って隣接するモデル構造の空間を侵している(たとえば、乳房に対して作業をしている間に肺を穿刺している)かどうかを示すために重要であり得る。したがって、図1Cのボックス31に見られるように、外科訓練生は胸部(モデル・タイプC)をSTSS中に取り込み、STSSは乳房再建か血管形成を実行する選択肢を訓練生に与える。外科訓練生がボックス33において乳房再建トレーニング・セッションを選択すると、STSSの特定のトレーニング・セッション・プログラムが起動する。外科トレーニング・セッション中に、訓練生が誤って肺を切り、穿刺した場合、肺センサーDがキュー受信機を介してSTSSに信号を送り、STSSは、応答して、肺穿刺及び改善措置を取る必要というARヘッドセット中の視覚的な警告メッセージの形態であり得る出力を訓練生に与えるようにプログラムされる。STSSはまた、肺穿刺に対応するデータベース11からのカリキュラム・コンテンツを出力として与え得る。出力は、任意の所望のフォーマットで、(たとえば、モニタ13上の、プリンタ9上に印刷され、及び/又は訓練生による後の取出しのためにコンピュータ17のメモリ中に若しくはメモリ・スティック7などの別個のメモリ・ストレージ・デバイス上にデジタル的に記憶された)任意の媒体上で与えられ得る。
外科トレーニング・セッションの実例は、腹腔鏡又はロボット外科トレーニング・セッションの開始時におけるヒト腹部16の外科ファントム・モデルが見られる、図2A及び図2Bに見られる。ポート・ロケーションは、参照番号18a~18dによって指定され、トレーニング・セッション中に訓練生によって腹壁(ポート)中の開口が形成されるべきロケーションを表す。胴体のへそ(navel)又は臍(umbilicus)は、参照番号20によって示され、3D空間中のモデルの一般的な配向を確立するための参照ポイント(基準点)を与える。この外科トレーニング・セッションの実例では、訓練生は、ARヘッドセット12中の音声及び/又は視覚的表示を介して、並びに/或いは(たとえば、口頭又は書面の形態であり得る)別個の指示によって、へそ20に隣接する第1の臍ポート18aを配置するようにSTSSによって指導される。訓練生10は、さらに、ARヘッドセット12に、ポート18aが配置されるべき場所の画像を外科モデル16上に重ね合わせさせるようにプログラムされ得るSTSSによって、臍ポート18aの適切な配置を指示され得る。ポート18aの配置により、(たとえば、モデル外観への変更を検出すること、訓練生の動き、又は表面又は埋込みセンサーのいずれかによって)キューが検出され、これによりARヘッドセット12などのキュー受信機への入力(たとえば、電子信号)の生成がトリガされる。ARヘッドセット12(キュー受信機)は、入力を分析し、訓練生がポート18aの適切な配置を実行したことを入力が示すかどうかを決定するようにプログラムされたSTSSに信号を中継する。そうである場合、以下でさらに説明するように、訓練生は、次いで、バーコード22によって指定されたロケーション中に第2のポート18bを配置するようにSTSSによって指導され得る。説明の容易さのためにバーコード22が図2Bに示されているが、人間の眼に見えることもあり、見えないこともある、キュー受信機(たとえば、ARヘッドセット12)によって感知され得る任意のタイプのモデル・キューが使用され得ることを理解されたい。そのようなインジケータは、たとえば、ARヘッドセット12によって検出可能であるが、ARヘッドセット12を着用している間でも訓練生によって検出可能でない見えないインクを含む。これは、訓練生は、胴体上の適切なポート・ロケーションが視覚的インジケータ又は他のインジケータによって直ちに認識可能ではない状態においてそれを見つけることが必要になるので、望ましいことがある。この場合、訓練生は、第2のポートが配置されると思われる場所が示されることなしに、単に、その第2のポートを配置するようにSTSSによって指示され得る。ポート・ロケーション18bにある見えないモデル・キュー、又は静止画/ビデオ・キューなどの他のキューは、訓練生がポートを正しいロケーションに配置したか否かを検出するために使用され得る。
上述のように、適切なポート・ロケーションを訓練生に示すことが望まれる場合、STSSは、訓練生のARヘッドセット中にポートをもつ腹部の画像を生じるか、又はポート・ロケーションの画像を外科モデル上にオーバーレイし得る。ARヘッドセットは、バーコード22を走査することなどによる表面マーキングなどの所望のキュー、又はへそ20などの他の基準点によって、ポート・ロケーション18bの正しいロケーションを認識する。この場合も、これは、訓練生が、実際の手術中に存在しないことがあるそのようなマーキングに過度に依拠すること防ぐために、モデル中のわずかな色の変化、又は、人間の可視スペクトル外の適用されたインク又は他の着色剤の使用と同程度に微妙であり得る。
第2のポート18bが正しく配置されたことが、それらの受信データをSTSSに入力として中継する(上記の説明参照)適切なキューによって検出された後、訓練生は、たとえば、上記で説明したようなモデル上のバーコード、又は、ARヘッドセット12によって検出可能である、モデル中に埋め込まれる(したがって人間の眼に見えない)こともあり、埋め込まれないこともある、センサーの形態を含む、任意の所望の形態のキューを含み得るロケーション24に第3のポート18cを配置するように、ARヘッドセット12を介してSTSSによって指導される。センサー(たとえば、圧力センサー)は、活動化すると、ARヘッドセット12によって検出される信号を生成し得、この信号は、第3のポート18cが適切に配置されたことをSTSSに通知し、STSSは、応答して、(たとえば、ARヘッドセット12及び/又はモニタ13及び/又はスピーカー15中でテキスト及び/又は口頭の指示を発することによって)18dに第4のポートを配置するように訓練生へのガイダンスを生成するようにプログラムされる。腹腔鏡トレーニング手順が完了したことが、キューによって検出され、STSSに中継された後、訓練生は、STSSによってモデル(たとえば、シミュレートされた腫瘍)から検体を除去し、26において切開を作るように訓練生に指示するように指示され得る。
次に図3A~図3Cを参照すると、本発明の別の態様は、STSSによる外科トレーニング・セッションをガイドするための訓練生の進捗の画像認識の使用を含み得る。図3Aにおいて、メス(scalpel)30の形態の外科用器具が外科モデル表面32の上に示されている(明快のために訓練生の手は図3A~図3Cに示されていない)。ARヘッドセット12及びSTSSは、モデル表面32と訓練生の手(図示せず)とメス30との相対位置データを(たとえば、ARヘッドセット12を介して)受信し、分析(処理)し、訓練生が当面のタスク(たとえば、腫瘍切除のために切開を作ること)のためにメス30を正しい向きに保持しているかどうかに関する情報(出力)を訓練生に与えるようにプログラムされ得る。
訓練生は、メス30を使用してモデル表面32中に切開34を切ることによって外科シミュレーション・セッションを進める。ARヘッドセット及びSTSSは、外観及び/又は基準点参照などのキューに基づいて切開34の長さ及び/又は深さを計算するようにプログラムされ得る。たとえば、キューは、モデル「皮膚」表面上で検出された1cm平方基準の形態で与えられ得、STSSは、基準点に対する切開の視覚的検出に基づいて距離を計算するようにプログラムされ得る。代替的に、電子センサーの形態のモデル・キューが一定の距離離間され得、線形又は曲線シーケンスで検出されたいくつかのセンサーが、STSSが距離(切開の長さ)を計算するために使用され得る。
深さ(モデル表面からモデルの本体中への距離)は、モデルの上面の下に延びた又はモデル中に「消えた」メスの量に基づいてビデオ・キュー及び/又は動きキューによって与えられ得る。メス刃は、この場合、視覚キューであり、刃のどのくらいの割合がモデル中に消えたかを検出し、STSSに中継することができる、ARヘッドセット12によって検出される。STSSは、切開深さを計算し、それが、切開34が正しく実行されていない、たとえば、切開34が切開深さのための最小のプログラムされたしきい値を満たさないことを計算した場合、適切な命令を訓練生に与えるために、このデータを使用するようにプログラムされ得る。
図3Cにおいて、モデル表面32は、切開34から流れ得るように配置された、シミュレートされた血液などのシミュレートされた体液を含み得る。STSSは、たとえば、モデル表面32(たとえば、肌の色)からの検出された色の区別(たとえば、血液の場合は赤)に基づいて、このシミュレートされた出血36を認識するようにプログラムされ得、たとえば、「吸引を使用する」又は「圧力を保持する」など、適切な指示を訓練生に与え得る。
図4A及び図4Bは、ソフトウェア・プログラミングが訓練生の進捗及び動作に相関する圧力を検出するように動作可能である圧力センサー38の形態のセンサーの実例を示す。この実例では圧力センサーが使用されるが、たとえば、ひずみセンサー、流量センサーなどを含む、任意のタイプのセンサーが使用され得ることが理解されることに留意されたい。たとえば、訓練生の手10aは、モデル表面32(図4B)に切り込みを入れるメス30(図4A)を保持する。センサーは、図4Aにおいてそれの静止状態にあることが見られる。センサー38は、図4Bに見られるように、それに押し付ける外科用器具によって検出され得、これにより、STSSがARヘッドセット又は他のHCI(人間コンピュータ・インターフェース)を介していくつかの指示を訓練生に与えることを引き起こす信号が生成される。訓練生がメス30を介してセンサー38に圧力を加えたとき、センサー38はキュー受信機に信号を送り、キュー受信機は、その信号をSTSSに中継し、それにより、視覚及び/又は音声フォーマットで、たとえば、「留置開創器(self-retaining retractor)を配置せよ」などの外科手術における指示の次のセットを訓練生に与える形態で出力が生成される。センサー38はまた、訓練生のメスの使用によってその上に加えられる力を測定し、キュー受信機及びSTSSに送信し得る。STSSは、センサー38から受信された力値を比較し、その値をプリセットされた力しきい値と比較し得る。感知された力値が許容できるしきい値外である場合、STSSは、応答して、訓練生が動作をどのように補正及び/又は改善し得るかに関するさらなる指示のオプションとともに、訓練生へのこの情報の出力を生成し得る。
図5は、本発明の一実施例による、腫瘍切除を伴う外科トレーニング・セッションのための外科モデルの実例を示す。この実例では、感知された訓練生動作メトリクスに基づいて訓練生カリキュラム・コンテンツを駆動するために様々なセンサーが採用される。外科ファントム・モデル40上の訓練生(図示せず)外科トレーニング・セッションは、栄養を送る血管44をもつ腫瘍42を切除するように訓練生を指導する。訓練生が腫瘍42を切除すると、血管44は切断されて、シミュレートされた血46を放出する。シミュレートされた血46は切除空洞48を満たしはじめ、それがセンサー50a及び50bによって感知される。センサーは、それらが空洞48を満たす血液の量を連続的に検出することができるように、図示のように戦略的に配置され得ることに留意されたい。たとえば、センサー50aをトリガするが、センサー50b又は50cはトリガしないことは、空洞48中に「n」立方センチメートル(「cc」)の血液が存在することを示し得る。より多くの血液が空洞48に入ると、センサー50bがトリガされ、「n+l」ccの血液が存在することが示される。一層多くの血液が空洞48に入ると、センサー50cがトリガされ、空洞48中の「n+2」ccの血液が示される。血液の量の増加を検出するために、任意の数のセンサーがモデル中に戦略的に配置され得る。採用されたセンサーのタイプ及び感知範囲に応じて、センサーは、シミュレートされた血液と物理的に接触したときにのみ活動化されるように選定され得るか、又は、それらは、シミュレートされた血液がセンサーの所定の距離内にあるときはいつでも活動化され得、出血が悪化していることがあることを訓練生に警告する。
STSSプログラミングは、特定のトレーニング・セッション又はそれの任意のセグメント中にどのセンサーが及び/又はいくつのセンサーが活動化されるか、及び/又は活動化されるセンサーの順序に基づいて、STSSプログラミングが訓練生に与えるための情報を選択するように行われ得る。図5に示された実例において、シミュレートされた血液46はセンサー50bのレベルに達しており、センサー50bは、吸引管52をよりよく利用するように訓練生に指示を与えるようにSTSSに促し得る。シミュレートされた血液46がセンサー50cのレベルに達した場合、STSSプログラミングは、たとえば、たとえば、「かなりの血液損失が発生している。出血が続いていることを麻酔医に警告せよ」などのテキスト・メッセージを(たとえば、ARヘッドセット12を介して)及び/又はボイス・メッセージを訓練生に与えることによって、訓練生に指示を与え得る。スポンジ51も、センサー53を有することが見られる。訓練生がスポンジ51を使用し、切開を閉じる際にそれをモデルの内部に置き忘れた場合、センサー53はSTSSに信号を送り、それにより、スポンジがモデルの内部に置き忘れられていることを訓練生に警告する。STSSはまた、手順におけるこの誤りに相関する訓練生にデータベース11からカリキュラム・コンテンツを供給し得る。
モデル中に複数の器官が存在している場合、訓練生が隣接する器官の周囲の空間を損傷したか、又は誤ってそこに入った場合に、訓練生に通知するために、隣接する器官内にセンサーが設けられ得る。たとえば、上記で図1Cを参照しながら説明したように、トレーニング・セッションが乳房モデル上である場合、肺モデルが乳房に対して解剖学的に正確な位置中に配置され得る。肺を穿刺することは外科緊急事態と考えられる。肺には、したがって、訓練生が意識して又は無意識のうちに肺を穿刺した場合に活動化するセンサーが設けられ得る。そのようにセンサーが活動化すると、STSSは、訓練生が修正行為を取るためのさらなる指示を伴う又は伴わない、肺穿刺についてのテキスト及び/又は可聴警告を発行し得る。修正行為が取られるべきである場合、そのような行為は、(たとえば、ビデオ及び/又は他のキューによって)分析され得、訓練生が、STSSでプログラムされた承認された外科修正行為プロトコルに従って行動したかどうかを決定するために時間調整され得る。
STSSプログラミングは、セッション中の任意の時間にトレーニング・セッションを継続するように訓練生に指示し得る。たとえば、プログラミングは、腫瘍42を退縮(retract)させるために吸引管52と鉗子54とを使用するように、訓練生に指示を与え得る。訓練生が吸引管52及び/又は鉗子54を使用して腫瘍を退縮させる際に、腫瘍42中に埋め込まれた圧力センサー56が押下され得、それにより活動化され得る。STSSプログラミングは、正しい退縮圧力を示すしきい圧力値を含み得る。腫瘍圧力センサー56からの低信号に基づいて起こる退縮が不十分である場合、STSSは、たとえば、より多くの退縮を実行するために吸引管52を使用するように、訓練生に警告を与え得る。
この腫瘍切除トレーニング・セッションは、腫瘍切除のための手順の一部として血管44の結紮(ligation)を必要とするように、STSS中にプログラムされ得る。STSSプログラミングは、センサー58がしきい値圧力を感知したときに血管の結紮を認識する。縫合(suture)が血管44の周りに配置されたが、十分に堅くない場合、STSSプログラミングは、たとえば、さらなる出血を防ぐために、やり直し又は縫合を堅くするように訓練生に指示することができる。
図6A及び図6Bは、腎臓腫瘍切除トレーニングを対象とする外科ファントム・モデル60中に与えられたモデル・キューの実例を示す。腎臓腫瘍モデル60は、(たとえば、ARヘッドセット12の一部を形成するバーコード・リーダーを用いて、又は図1に見られる23a又は23bなどの別個のバーコード・スキャナを用いてバーコード62を走査することによって、STSSプログラミングによって識別される。バーコード62は、STSSプログラミングに、特定の外科トレーニング・セッション(この実例では、腎臓腫瘍切除)に適合したカリキュラム・コンテンツを訓練生に与えさせ得る。バーコード62は、モデル・キューとしてマーキングされるモデル・タイプの多くの可能な実例のうちの1つであることに留意されたい。上記で説明したように、センサーで検出可能なマーキングの他の実例は、そのようなマーキングは実際の外科手術中に現れないので非現実的なトレーニング経験を場合によっては生じ得るマーキングに訓練生が気づくことを防ぐために、マーキングとモデル基板との間の微妙な色の区別、及び/又は人間の可視スペクトル外のインク又は他の着色剤を含む。
シミュレートされた腎臓腫瘍64及びそれの境界は、腫瘍64と腫瘍64を囲む腎臓モデル基板60との間の感知された色差によって、STSSプログラミングによって識別され得る。(実際の腎臓では一般に脂肪によって覆われている)腎臓モデル60の縁部は、検出され、腎臓のこの部分が露出していることをSTSSプログラミングに通知する一意のマーキングを有する。訓練生は、見逃された病変又は他の異常がないことを保証するために、手術中に腎臓全体を評価することを要求される。STSSは、STSSプログラミングによってマーキング66が検出されるまで腎臓を「むき出しにする」又は「露出させる」ように訓練生に指示する。
腫瘍64の切除中、訓練生は腎臓動脈68と腎臓静脈68bとを識別しなければならない。STSSプログラミングは、仮止めクリップ70を動脈68a上のみに配置するように訓練生に指示を与える。不正確に配置された(ことがモデル・キュー及び/又はID動きキュー及び/又は静止画/ビデオ・キューのいずれか1つ又は複数によって検出された)場合、STSSプログラミングは、クリップが不適切に配置されたという指示を訓練生に与え得、及び/又はクリップ70を正しい位置に移動するように訓練生に指示し得る。たとえば、訓練生がクリップを静脈68b上に配置した場合、これは(たとえば、静脈68bの中又は上に配置されたセンサーによって、又はカメラを通した視覚入力によって)検出され、静脈上に配置すると、腎臓は血流の流入は生じるが流出はなくなり、潜在的に腎臓が破裂するので、STSSプログラミングは、それを医療的緊急事態として識別するであろう。さらに、正しいクリップ位置は血管に直角であり、クリップの先端は血管の縁部に交差するべきである。目視検査(たとえば、クリップと血管との間の色差)により、STSSは、動脈に対するクリップの重なり及び相対的配置を評価することが可能になり得る。
図6Bを参照すると、遺残腫瘍(residual tumor)が参照番号64’によって示されている。STSSプログラミングは、周囲の領域との残っている色の区別などの視覚データ(たとえば、静止画/ビデオ・キュー)に基づいて、遺残腫瘍64’を認識し得る。STSSプログラミングは、次いで、すべての遺残腫瘍64’が除去されるまで腫瘍切除を継続するように訓練生に指示し得る。遺残腫瘍64’が完全に除去されたことが、受信されたキュー(たとえば、残っている色の区別が視覚データ中に見られないこと)によって認識された後、STSSプログラミングは、次いで、トレーニング・セッションを継続し、腎臓への血流を回復するために仮止めクリップ70を外すように訓練生に指示し得る。
図7は、容易に入手可能な機械学習ソフトウェアを使用したSTSSのトレーニングのためのプロセスを示す。STSSトレーニングは、画像処理トレーニングのための機械学習ソフトウェアを使用することによって(たとえば、縫合品質を)識別する際に関係するキューを取ることによって実行されるオフライン・プロセスである。
図8において、画像が特定の物体又は画像である可能性の確率的推定値を与えるために、図7に見られるように生成された前処理された画像特性データが、複数の(一般に数百個の)汎用処理装置(GPU: generalized processing unit)及び/又はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field Programmable Gate Array)内の複数の特定用途向けデジタル論理要素、及び/又は特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)によってリアルタイムで使用される。このリアルタイム画像処理手法は、外科的進行がキューを使用して識別され、STSSによって解釈され、シミュレーション活動中にトレーニングを行うための適切な指示を与えることを可能にする。この例では、キューはユーザの手であり、器具はキューである。物体と物体を使用する技法の両方のタイプが分析され、次いで、必要と思われる場合、コンピュータによって補正される。
図9は、本発明の一実施例による、ニューラル・ネットワークを使用した機械学習及び深層学習のためのコンピュータをトレーニングする流れ図である。切開間隔がユーザ技法の検出のための実例として使用される。第1のボックスはキュー受信機への入力(ARヘッドセット・ビデオからの画像のスタック)を表す。ニューラル・ネットワークは、学習された画像データベースに基づいて縫合パターンを分類し、縫合間の間隔距離を決定する。間隔は初心者/熟練者使用データと比較され、出力はパーセンタイルなどの動作スコアである。許容できる縫合間隔と誤差とのための設定されたしきい値は、次いで、縫合品質と許容性とをユーザに通知するようにSTSSに促す。
図10は、本発明の一実施例による、機械学習/深層学習を使用したリアルタイム物体/信号検出の流れ図である。
図11は、様々なシステム出力とプロンプトとを生成するためにSTSSによって使用され得る、対象領域(AOI)中の「Y」個の物体/信号を識別するために、複数のGPU、ASIC及び/又はFPGA上で並行して動作している、図9のプロセスの「N」個のインスタンスを示すデシジョン・ツリーを示す。さらに、画像は、分類され、メトリクスと性能指数(figure of merit)とのために使用されるようにスコアリングされ得る。たとえば、縫合間隔、創傷ギャップ、又は他の外科属性などの属性は手術結果の改善のために望ましいことが知られている。性能指数は、たとえば、優、良、可及び不可であり得る。この処理は、シミュレートされた画像及び/又は信号のために通常30~100Hzで実行される、フレーム・レート「M」において繰り返し実行される。各フレーム中、機械学習を利用して物体検出が実行され、その後、検出された物体に基づいて指導コンテンツを表示/告知するプロセスが実行される。次に、分類された物体及び信号がタイムスタンプされ、術後の指示再生のためにデータベース中に記憶される。最後に、使用されない処理時間を占め、Mフレーム毎秒のレートで処理を同期させる「時間のかかる(time burner)」タスクが動作する。
図12は、外科手術における次のステップについて訓練生にプロンプトするために、ARヘッドセット12上で指示がどのように与えられ得るかを示す。外科視界内の検出された物体の位置を推定するために基準点及び/又はバーコードが使用される。信号/物体検出段階中に検出された物体は、対象領域の画像の上にオーバーレイされ、訓練生10による閲覧のためにARヘッドセット12上に表示され得る。たとえば、外科訓練生が縫合を学習している場合、オーバーレイが与えられ、訓練生の瞬時スコア又は訓練生の縫合技法の性能指数が示され得る。たとえば、訓練生は、HCIを通して「指示を次のステップに進める」などのボイス・プロンプト入力を与えることができる。さらに、機械学習はまた、訓練生がトレーニング・セッションの特定の段階のために正しい器具を使用しているか否かを検出し、正しい器具を用いて訓練生にプロンプトすることができる。
図13は、検出された物体にタイムスタンプを付け、それらを再生/結果報告(debrief)モード中の後の取出しのためにデータベースに記憶する画像/信号のログを示す。
図14は、物理的なシミュレートされた器官と、タイムスタンプされたデータベースからの時間同期されたARビデオ/音声/信号とを使用してトレーニング・セッションを取り出す、指示再生モードを示す。再生は、訓練生との対話型様式でトレーニング・セッションの任意の部分において開始され得る。たとえば、ユーザは、随意に再生を一時停止したり、トレーニング・セッション中の特定の時間にジャンプしたり、検出された物体の次のインスタンスにジャンプしたり、再生セッションを終了したりすることができる。報告は、記録/再生セッションの最後に生成され、メトリクス、スコア及び最終報告記録を含むことができる。
本発明の装置、方法及びシステムについて、それのいくつかの好ましい実施例に関して図示し、説明したが、説明された本発明の趣旨及び範囲から逸脱することなく、形態及び詳細における様々な変更がそこにおいて行われ得ることが当業者によって理解されよう。

Claims (19)

  1. a)人間又は動物の解剖学的部位のモデルと、
    b)前記モデルに取り付けられた1つ又は複数のセンサーであって、前記1つ又は複数のセンサーが、活動化入力を受信したことに応答して信号を放出するように動作可能である、1つ又は複数のセンサーと、
    c)前記1つ又は複数のセンサーからの電子信号を受信するように適応された1つ又は複数の電子及び/又は光入出力チャネルを有する拡張現実ヘッドセットと、
    d)前記拡張現実ヘッドセット及び/又は前記1つ又は複数のセンサーからの信号を受信するように動作可能なコンピュータ・プロセッサと、
    e)1つ又は複数の個別の外科主題構成要素を記憶した外科トレーニング・カリキュラムを有するコンピュータ・データベースと、
    f)前記コンピュータ・プロセッサ上で動作し、前記データベースに接続されたソフトウェア・プログラムであって、前記ソフトウェア・プログラムが、前記1つ又は複数のセンサー信号を前記1つ又は複数の個別の外科主題構成要素に相関させるように動作可能であり、前記ソフトウェア・プログラムが、さらに、b)において前記活動化入力を受信したことに応答して受信された信号に相関させられた前記個別の外科主題構成要素を第1の出力として与えるように動作可能である、ソフトウェア・プログラムと
    を備える、外科トレーニング・システム。
  2. 前記1つ又は複数のセンサーが、前記モデル内に埋め込まれ、前記モデル中への開口を切断すると露出される2つ又はそれ以上のセンサーを含み、前記1つ又は複数のセンサーが、前記開口内を流れる流体との接触に応答して信号を放出するように動作可能である、請求項1に記載の外科トレーニング・システム。
  3. 2つ又はそれ以上のセンサーが、前記モデル内の異なる深さに配置され、前記2つ又はそれ以上のセンサーの順次活動化によって流体の増加する流れを感知するように動作可能である、請求項2に記載の外科トレーニング・システム。
  4. 前記ソフトウェア・プログラムが、前記2つ又はそれ以上のセンサーの各々を流体の体積量と相関させるように動作可能であり、前記2つ又はそれ以上のセンサーの各々が流体の異なる体積量に相関する、請求項3に記載の外科トレーニング・システム。
  5. 前記ソフトウェア・プログラムは、流体の前記体積量が所定のしきい値に達するか又は超えたことに応答して、訓練生に感知できる第2の出力を与えるように動作可能である、請求項4に記載の外科トレーニング・システム。
  6. 訓練生に感知できる前記第2の出力が可聴警告又はテキスト・メッセージのうちの1つ又は複数である、請求項5に記載の外科トレーニング・システム。
  7. 訓練生に感知できる前記第2の出力が前記拡張現実ヘッドセット中で見えるテキストである、請求項6に記載の外科トレーニング・システム。
  8. a)人間又は動物の解剖学的部位のモデルであって、前記モデルが1つ又は複数のキューを有する、モデルと、
    b)前記モデルからの1つ又は複数のキューを受信するように動作可能なキュー受信機であって、前記キュー受信機が、キューを受信したことに応答して信号を生成するように動作可能である、キュー受信機と、
    c)前記キュー受信機からの信号を受信するように動作可能なコンピュータ・プロセッサと、
    e)1つ又は複数の個別の外科主題構成要素を記憶した外科トレーニング・カリキュラムを有するコンピュータ・データベースと、
    f)前記コンピュータ・プロセッサ上で動作し、前記データベースに接続されたソフトウェア・プログラムであって、前記ソフトウェア・プログラムが、前記1つ又は複数の受信された信号を前記1つ又は複数の個別の外科主題構成要素に相関させるように動作可能であり、前記ソフトウェア・プログラムが、さらに、受信された信号に相関させられた前記個別の外科主題構成要素を出力として与えるように動作可能である、ソフトウェア・プログラムと
    を備える、外科トレーニング・システムであって、
    前記キュー受信機は、拡張現実ヘッドセットである、外科トレーニング・システム。
  9. 前記拡張現実ヘッドセットが、
    a)シー・スルー・オプティクスをもつ投影ディスプレイ導波路、
    b)WiFi及びBluetooth接続性、
    c)カメラ、
    d)中央処理ユニット、
    e)単眼鏡、
    f)双眼鏡、
    g)ハプティック・フィードバック、
    h)ボイス制御、
    i)オペレーティング・システム、
    j)ノイズ・キャンセリング・マイクロフォン、並びに
    k)オン・ボード・ビデオ記録媒体
    のうちの1つ又は複数を有する、請求項8に記載の外科トレーニング・システム
  10. 前記キュー受信機がデジタル・スチル・カメラ及び/又はビデオ・カメラを含む、請求項8に記載の外科トレーニング・システム。
  11. 前記キューが、前記モデルに取り付けられたバーコードであり、前記キュー受信機がバーコード・スキャナを含む、請求項8に記載の外科トレーニング・システム。
  12. 前記ソフトウェア・プログラムがサービスとしてのソフトウェアとして与えられる、請求項8に記載の外科トレーニング・システム。
  13. 前記出力がコンピュータ・モニタ上に与えられる、請求項8に記載の外科トレーニング・システム。
  14. 前記出力が前記拡張現実ヘッドセット上に与えられる、請求項に記載の外科トレーニング・システム。
  15. 前記モデルのうちの2つ又はそれ以上をさらに備え、各モデルが別個の解剖学的モデル・タイプであり、前記ソフトウェア・プログラムが、前記モデル・タイプの各々に相関させられた別個の外科セッション・プログラムを含む、請求項8に記載の外科トレーニング・システム。
  16. 前記別個の外科セッション・プログラムが少なくとも2つの代替外科セッション・タイプを含む、請求項15に記載の外科トレーニング・システム。
  17. 前記解剖学的部位が、心臓モデルと肺モデルとを有する胸部である、請求項16に記載の外科トレーニング・システム。
  18. 前記解剖学的部位が少なくとも2つのモデルを含み、前記ソフトウェア・プログラムが、前記モデルのいずれかから受信された信号に応答して出力を与えるようにプログラムされる、請求項8に記載の外科トレーニング・システム。
  19. 前記モデル・タイプが腎臓であり、前記外科セッション・タイプが、腫瘍切除外科セッションと生検セッションとを含む、請求項16に記載の外科トレーニング・システム。
JP2021502919A 2018-07-18 2019-07-18 外科トレーニング装置、方法及びシステム Active JP7453693B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/039,025 US10410542B1 (en) 2018-07-18 2018-07-18 Surgical training apparatus, methods and systems
US16/039,025 2018-07-18
PCT/US2019/042470 WO2020018834A1 (en) 2018-07-18 2019-07-18 Surgical training apparatus, methods and systems

Publications (2)

Publication Number Publication Date
JP2021531504A JP2021531504A (ja) 2021-11-18
JP7453693B2 true JP7453693B2 (ja) 2024-03-21

Family

ID=67845378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021502919A Active JP7453693B2 (ja) 2018-07-18 2019-07-18 外科トレーニング装置、方法及びシステム

Country Status (9)

Country Link
US (4) US10410542B1 (ja)
EP (1) EP3823549A4 (ja)
JP (1) JP7453693B2 (ja)
KR (1) KR20210022135A (ja)
CN (1) CN112822989B (ja)
AU (1) AU2019307937A1 (ja)
CA (1) CA3106659A1 (ja)
IL (1) IL280233B (ja)
WO (1) WO2020018834A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11487353B2 (en) * 2016-11-14 2022-11-01 Logitech Europe S.A. Systems and methods for configuring a hub-centric virtual/augmented reality environment
EP3574504A1 (en) * 2017-01-24 2019-12-04 Tietronix Software, Inc. System and method for three-dimensional augmented reality guidance for use of medical equipment
US11227439B2 (en) * 2018-03-29 2022-01-18 Eon Reality, Inc. Systems and methods for multi-user virtual reality remote training
US10410542B1 (en) * 2018-07-18 2019-09-10 Simulated Inanimate Models, LLC Surgical training apparatus, methods and systems
CA3112027A1 (en) * 2018-09-19 2020-03-26 Edwards Lifesciences Corporation Medical implant inspection using imaging
US11349843B2 (en) * 2018-10-05 2022-05-31 Edutechnologic, Llc Systems, methods and apparatuses for integrating a service application within an existing application
US11107371B2 (en) 2019-05-24 2021-08-31 Sharp Medical Products—Chest Tube, LLC. Rib training assembly
US20220021863A1 (en) * 2020-07-14 2022-01-20 Chad Lee Methods and systems for facilitating population of a virtual space around a 2d content
EP4057181A1 (en) 2021-03-08 2022-09-14 Robovision Improved detection of action in a video stream
CN112773513A (zh) * 2021-03-13 2021-05-11 刘铠瑞 一种病变阑尾切除手术专用病理标本制作器械包
US11501502B2 (en) * 2021-03-19 2022-11-15 International Business Machines Corporation Augmented reality guided inspection
KR102414213B1 (ko) * 2021-08-19 2022-06-30 (주)리얼디멘션 인공관절수술 시뮬레이션 시스템
CN113768565B (zh) * 2021-10-08 2023-04-25 巢湖市宾雄医疗器械有限公司 一种医用缝合针便携存放拿取装置及其存放方法
WO2023069782A1 (en) * 2021-10-23 2023-04-27 Simulated Inanimate Models, LLC Procedure guidance and training apparatus, methods and systems
WO2023235747A2 (en) * 2022-05-31 2023-12-07 The Board Of Supervisors Of Louisiana State University And Agricultural And Mechanical College Modular anatomical system
CN115359873B (zh) * 2022-10-17 2023-03-24 成都与睿创新科技有限公司 用于手术质量的控制方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050181342A1 (en) 2000-10-23 2005-08-18 Toly Christopher C. Medical training simulator including contact-less sensors

Family Cites Families (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5279309A (en) 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
US5610811A (en) * 1992-11-09 1997-03-11 Niti-On Medical Supply Co., Ltd. Surgical instrument file system
US6474993B1 (en) 1996-12-04 2002-11-05 Erbe Elektromedizin Gmbh Artificial tissue
GB9712987D0 (en) 1997-06-19 1997-08-27 Limbs & Things Ltd Surgical training apparatus
JPH11197159A (ja) * 1998-01-13 1999-07-27 Hitachi Ltd 手術支援システム
IL123073A0 (en) 1998-01-26 1998-09-24 Simbionix Ltd Endoscopic tutorial system
US6852107B2 (en) * 2002-01-16 2005-02-08 Computer Motion, Inc. Minimally invasive surgical training using robotics and tele-collaboration
US8527094B2 (en) * 1998-11-20 2013-09-03 Intuitive Surgical Operations, Inc. Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures
FR2810552B1 (fr) 2000-06-26 2004-11-19 Univ Paris Curie Polymere biocompatible a structure tridimensionnelle a cellules communicantes, procede de preparation et application en medecine et en chirurgie
GB2385194B (en) 2000-09-06 2004-12-15 Chamberlain Group A cardiac surgical trainer and method for making same
US6780016B1 (en) 2000-10-23 2004-08-24 Christopher C. Toly Human surgical trainer and methods for training
US6596402B2 (en) 2000-12-29 2003-07-22 Kimberly-Clark Worldwide, Inc. Absorbent, lubricious coating and articles coated therewith
WO2003093327A1 (fr) 2002-05-01 2003-11-13 Hokkaido Technology Licensing Office Co., Ltd. Gel ayant une structure multiple en réseau et procédé de production
DE10261673A1 (de) * 2002-12-31 2004-07-15 Riener, Robert, Dr.-Ing. Interaktive Lehr- und Lernvorrichtung
US20050100873A1 (en) 2003-05-02 2005-05-12 Meythaler Jay M. System for simulating cerebrospinal injury
US7850456B2 (en) 2003-07-15 2010-12-14 Simbionix Ltd. Surgical simulation device, system and method
US20050037082A1 (en) 2003-08-13 2005-02-17 Wan-Kei Wan Poly(vinyl alcohol)-bacterial cellulose nanocomposite
US7083418B2 (en) 2003-10-16 2006-08-01 Baldy By Design, Llc Pediatric congenital heart defect repair model
US20060209019A1 (en) * 2004-06-01 2006-09-21 Energid Technologies Corporation Magnetic haptic feedback systems and methods for virtual reality environments
WO2006041606A2 (en) 2004-10-08 2006-04-20 University Of Utah Research Foundation System for supervised remote training
WO2006102756A1 (en) 2005-03-30 2006-10-05 University Western Ontario Anisotropic hydrogels
US20140322688A1 (en) 2006-03-03 2014-10-30 EBM Corporation System for evaluating cardiac surgery training
US8403676B2 (en) 2006-05-19 2013-03-26 Olympus Endo Technology America Inc. Anatomical model
US10258425B2 (en) * 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
WO2008058039A1 (en) 2006-11-06 2008-05-15 University Of Florida Research Foundation, Inc. Devices and methods for utilizing mechanical surgical devices in a virtual environment
EP2097889A1 (en) 2006-12-21 2009-09-09 Koninklijke Philips Electronics N.V. Anatomically and functionally accurate soft tissue phantoms and method for generating same
US20090246747A1 (en) 2008-03-25 2009-10-01 Operative Experience, Inc. Simulator for major surgical operations
US11315441B2 (en) 2009-04-28 2022-04-26 Yuugengaisha Seiwadental Organ model
US20100311025A1 (en) 2009-06-09 2010-12-09 The Government Of The Us, As Represented By The Secretary Of The Navy Material Formulations for Human Tissue Simulation
CN104246855B (zh) 2009-06-29 2017-08-15 皇家飞利浦电子股份有限公司 肿瘤消融培训系统
US8870576B2 (en) 2009-09-22 2014-10-28 The University Of Western Ontario Surgical training aids and methods of fabrication thereof
DE102010020222A1 (de) 2010-05-11 2011-11-17 Axel Haverich Verfahren zur Herstellung einer Organnachbildung, insbesondere eines Funktionsmodells
US8613621B2 (en) 2010-07-15 2013-12-24 Colorado State University Research Foundation Simulated tissue, body lumens and body wall and methods of making same
EP4002330B1 (en) * 2010-10-01 2024-09-04 Applied Medical Resources Corporation Portable laparoscopic trainer
WO2012060901A1 (en) * 2010-11-04 2012-05-10 The Johns Hopkins University System and method for the evaluation of or improvement of minimally invasive surgery skills
CN202003575U (zh) 2011-01-20 2011-10-05 中国人民解放军第三军医大学第一附属医院 仿真人体模型腹腔镜技能训练装置
WO2013059575A1 (en) 2011-10-21 2013-04-25 Applied Medical Resources Corporation Simulated tissue structure for surgical training
US8801438B2 (en) 2011-11-23 2014-08-12 Christopher Sakezles Artificial anatomic model
JP2015503961A (ja) 2011-12-20 2015-02-05 アプライド メディカル リソーシーズ コーポレイション 高度手術シミュレーション
US8992230B2 (en) * 2012-01-23 2015-03-31 Virtamed Ag Medical training systems and methods
US9123261B2 (en) * 2012-01-28 2015-09-01 Gaumard Scientific Company, Inc. Surgical simulation models, materials, and methods
US20130288218A1 (en) 2012-04-27 2013-10-31 Medtronic Cryocath Lp Cardiac model for simulating medical procedures
JP5236103B1 (ja) 2012-07-13 2013-07-17 株式会社ジェイ・エム・シー 臓器モデルの製造方法、臓器モデル製造用の型、及び臓器モデル
US20140081652A1 (en) * 2012-09-14 2014-03-20 Risk Management Solutions Llc Automated Healthcare Risk Management System Utilizing Real-time Predictive Models, Risk Adjusted Provider Cost Index, Edit Analytics, Strategy Management, Managed Learning Environment, Contact Management, Forensic GUI, Case Management And Reporting System For Preventing And Detecting Healthcare Fraud, Abuse, Waste And Errors
CN103959357B (zh) * 2012-10-19 2018-02-02 儿童医院 用于眼科检查培训的系统和方法
EP2797068B1 (en) 2013-04-24 2020-08-26 Tallinn University of Technology Anatomical kidney phantom with calyxes for drainage training in interventional radiology
WO2014186574A1 (en) 2013-05-15 2014-11-20 Applied Medical Resources Corporation Hernia model
DE102013214402A1 (de) 2013-07-23 2014-09-11 Deutsches Zentrum für Luft- und Raumfahrt e.V. Organphantom
WO2015027286A1 (en) * 2013-09-02 2015-03-05 University Of South Australia A medical training simulation system and method
WO2015095715A1 (en) * 2013-12-20 2015-06-25 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
CN106414039B (zh) 2014-01-23 2022-01-18 株式会社理光 三维物体及其形成方法
US9677840B2 (en) * 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
WO2015146221A1 (ja) 2014-03-24 2015-10-01 富士フイルム株式会社 生体臓器模型用水性ゲル組成物および生体臓器模型
NL2013088B1 (en) 2014-06-30 2016-07-11 Knowfort Holding B V A process for preparation of a composite layer or a laminate, and product obtained therewith.
EP2996105A1 (en) * 2014-09-12 2016-03-16 Universita Di Pisa Augmented reality surgical simulator, particularly for deformable anatomical structures
JP6751392B2 (ja) 2014-10-24 2020-09-02 ウェイク・フォレスト・ユニヴァーシティ・ヘルス・サイエンシズ バイオファブリケーションのための組織模倣ハイドロゲル組成物
CA2963571C (en) 2014-11-10 2023-01-03 Synaptive Medical (Barbados) Inc. Surgical training phantom with spectroscopically distinct regions
WO2016109575A1 (en) * 2014-12-29 2016-07-07 Help Me See Inc. Surgical simulator system and method
GB2550512B (en) 2015-01-29 2019-01-23 Synaptive Medical Barbados Inc Physiological phantoms incorporating feedback sensors and sensing materials
KR102438169B1 (ko) 2015-02-19 2022-08-31 어플라이드 메디컬 리소시스 코포레이션 시뮬레이션된 조직 구조체들 및 방법들
CN105985925B (zh) 2015-03-04 2019-08-09 刘畅 一种全功能人工器官拟合体及其制备和培养方法
PL3264986T3 (pl) 2015-03-06 2020-07-13 Stellenbosch University Fantom obrazowania dla urządzeń opartych na promieniowaniu
JP2016177237A (ja) 2015-03-23 2016-10-06 セイコーエプソン株式会社 模擬臓器
JP2016177234A (ja) 2015-03-23 2016-10-06 セイコーエプソン株式会社 模擬臓器、模擬臓器の作製方法
JP2016177235A (ja) 2015-03-23 2016-10-06 セイコーエプソン株式会社 模擬臓器
JP6741652B2 (ja) 2015-03-24 2020-08-19 国立大学法人 筑波大学 模型、製作システム、情報処理装置、製作方法、情報処理方法、プログラム、記録媒体
US10426418B2 (en) 2015-04-26 2019-10-01 Baylor College Of Medicine Phantoms and methods and kits using the same
US20160314716A1 (en) * 2015-04-27 2016-10-27 KindHeart, Inc. Telerobotic surgery system for remote surgeon training using remote surgery station and party conferencing and associated methods
WO2016183412A1 (en) 2015-05-14 2016-11-17 Applied Medical Resources Corporation Synthetic tissue structures for electrosurgical training and simulation
EP3297564A1 (en) * 2015-05-19 2018-03-28 MAKO Surgical Corp. System and method for demonstrating planned autonomous manipulation of an anatomy
JP2017032624A (ja) 2015-07-29 2017-02-09 セイコーエプソン株式会社 模擬臓器
JP2017032689A (ja) 2015-07-30 2017-02-09 セイコーエプソン株式会社 模擬臓器、生体模擬組織および模擬臓器用ケース
JP2017032694A (ja) 2015-07-30 2017-02-09 セイコーエプソン株式会社 模擬臓器
JP2017032687A (ja) 2015-07-30 2017-02-09 セイコーエプソン株式会社 模擬臓器
JP2017032688A (ja) 2015-07-30 2017-02-09 セイコーエプソン株式会社 模擬臓器
JP2017032690A (ja) 2015-07-30 2017-02-09 セイコーエプソン株式会社 模擬臓器
JP2017032740A (ja) 2015-07-31 2017-02-09 セイコーエプソン株式会社 模擬臓器装置
US10319259B2 (en) 2015-09-23 2019-06-11 Synaptive Medical (Barbados) Inc. Anatomical simulators produced using 3d printing
US11345879B2 (en) 2015-11-17 2022-05-31 Lawrence Livermore National Security, Llc Emulsion stereolithography and 3D printing of multimaterials and nanoscale material gradients
US20170301264A1 (en) 2015-12-07 2017-10-19 Humanetics Innovative Solutions, Inc. Three-dimensionally printed internal flesh and organs for crash test dummy
US10548669B2 (en) * 2016-02-16 2020-02-04 Mentice Ab Systems and methods for routing a vessel line such as a catheter within a vessel
JP6896999B2 (ja) 2016-03-17 2021-06-30 株式会社リコー 立体造形物、臓器モデル及びその製造方法
WO2017165176A1 (en) 2016-03-24 2017-09-28 Boston Scientific Scimed, Inc. Anatomical ultrasound access model
EP3455756A2 (en) * 2016-05-12 2019-03-20 Affera, Inc. Anatomical model controlling
KR101836634B1 (ko) 2016-05-17 2018-03-09 한국표준과학연구원 집속초음파용 초음파 팬텀, 그 초음파 팬텀의 제조방법, 생체조직 모방 하이드로겔 팬텀, 그 제조방법 및 그 팬텀을 이용한 변색방법 및 약물전달방법
JP2019534717A (ja) * 2016-08-16 2019-12-05 インサイト メディカル システムズ インコーポレイテッド 医療処置における感覚増強のためのシステム
US20180053441A1 (en) 2016-08-19 2018-02-22 Boston Scientific Scimed, Inc. Demonstration and training model
EP3288009A1 (en) * 2016-08-23 2018-02-28 Virtamed AG Low-resistance anatomical tissue model
WO2018083687A1 (en) * 2016-10-07 2018-05-11 Simbionix Ltd Method and system for rendering a medical simulation in an operating room in virtual reality or augmented reality environment
WO2018097923A1 (en) * 2016-11-22 2018-05-31 PraxiCut, LLC Surgical simulation systems, methods, and compositions
CN107993501A (zh) * 2017-12-04 2018-05-04 菏泽学院 一种人体解剖教学系统
US10410542B1 (en) * 2018-07-18 2019-09-10 Simulated Inanimate Models, LLC Surgical training apparatus, methods and systems

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050181342A1 (en) 2000-10-23 2005-08-18 Toly Christopher C. Medical training simulator including contact-less sensors

Also Published As

Publication number Publication date
IL280233B (en) 2021-07-29
AU2019307937A1 (en) 2021-02-11
CA3106659A1 (en) 2020-01-23
US20220148459A1 (en) 2022-05-12
US20200027374A1 (en) 2020-01-23
US10410542B1 (en) 2019-09-10
EP3823549A1 (en) 2021-05-26
JP2021531504A (ja) 2021-11-18
US20210005110A1 (en) 2021-01-07
EP3823549A4 (en) 2022-04-06
KR20210022135A (ko) 2021-03-02
CN112822989A (zh) 2021-05-18
IL280233A (en) 2021-03-01
CN112822989B (zh) 2024-08-16
US10665134B2 (en) 2020-05-26
WO2020018834A1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
JP7453693B2 (ja) 外科トレーニング装置、方法及びシステム
US11381659B2 (en) Reality-augmented morphological procedure
JP7500667B2 (ja) インジケータシステム
US11944344B2 (en) Guidance system, method and devices thereof
US20140011173A1 (en) Training, skill assessment and monitoring users in ultrasound guided procedures
RU209329U1 (ru) Автоматическое дополнение эндоскопического видеоизображения
KR101108927B1 (ko) 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법
US20150342746A9 (en) System, method and apparatus for simulating insertive procedures of the spinal region
KR20110042277A (ko) 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법
Crossan et al. A horse ovary palpation simulator for veterinary training
KR100957470B1 (ko) 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법
RU216092U1 (ru) Автоматическое дополнение эндоскопического видеоизображения
RU214412U1 (ru) Автоматическое дополнение эндоскопического видеоизображения
US20230105111A1 (en) System and Method for Teaching Minimally Invasive Interventions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20210312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230928

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240301

R150 Certificate of patent or registration of utility model

Ref document number: 7453693

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150