JP2004348095A - Training system - Google Patents

Training system Download PDF

Info

Publication number
JP2004348095A
JP2004348095A JP2003179212A JP2003179212A JP2004348095A JP 2004348095 A JP2004348095 A JP 2004348095A JP 2003179212 A JP2003179212 A JP 2003179212A JP 2003179212 A JP2003179212 A JP 2003179212A JP 2004348095 A JP2004348095 A JP 2004348095A
Authority
JP
Japan
Prior art keywords
training
training system
information
sensors
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003179212A
Other languages
Japanese (ja)
Inventor
Yasushi Yamauchi
康司 山内
Jiyuri Yamashita
樹里 山下
Masaaki Mochimaru
正明 持丸
Yukio Fukui
幸男 福井
Osamu Morikawa
治 森川
Ryoichi Hashimoto
亮一 橋本
Hiroshi Uno
廣 宇野
Hiroyuki Hara
浩幸 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koken Co Ltd
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Koken Co Ltd
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koken Co Ltd, National Institute of Advanced Industrial Science and Technology AIST filed Critical Koken Co Ltd
Priority to JP2003179212A priority Critical patent/JP2004348095A/en
Priority to PCT/JP2004/004299 priority patent/WO2004086335A1/en
Publication of JP2004348095A publication Critical patent/JP2004348095A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Medical Informatics (AREA)
  • Medicinal Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Algebra (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pulmonology (AREA)
  • Mathematical Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Instructional Devices (AREA)
  • Endoscopes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a training system in which using a real or mockup medical instrument where various sensors are attached or incorporated, or which is monitored with various sensors, training of minimally invasive medical operation such as an endoscopic operation is conducted on a manikin where various sensors are attached or incorporated or which is monitored with various sensors, information is acquired through the various sensors during the training, and the operation history during training can be recorded and reproduced one by one on site or at a remote place. <P>SOLUTION: By using a real or mockup medical instrument where various sensors are attached or incorporated, or which is monitored with various sensors, training of minimally invasive medical operation such as an endoscopic operation is conducted on a manikin where various sensors are attached or incorporated or which is monitored with various sensors, information is acquired through the various sensors during the training, and the operation history during training can be recorded and reproduced one by one on site or at a remote place. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は手術操作のトレーニングあるいは研修等において手術前のシミュレーション、あるいはその他、精密な操作が必要とされる分野での操作トレーニングシステムに関するものである。また本システムを用いて、実際の手術器具を用いた術前計画立案・手術手技のシミュレーションに用いる。これにより、手術前に複数の手技を比較検討することが可能である。
【0002】
【従来の技術】
手術のトレーニングに関し、様々な技術が知られている(例えば、特許文献1〜9参照。)。
【0003】
【特許文献1】
特開2001−005377号公報
【特許文献2】
特開平11−262542号公報
【特許文献3】
特開平11−249548号公報
【特許文献4】
特表2002−510069号公報
【特許文献5】
特開2001−137384号公報
【特許文献6】
特開2001−005378号公報
【特許文献7】
特開平11−231770号公報
【特許文献8】
特開平06−105877号公報
【特許文献9】
特表平08−500021号公報
【0004】
更に具体的な製品としては(株)高研の救急処置シミュレーターなどが知られている。また、上記特許文献7に記載されているように、特に近年ではVR技術を用いたトレーニングシステムの開発が盛んである。
【0005】
【発明が解決しようとする課題】
内視鏡下手術は侵襲性が低く患者の身体的負担が少ないため普及が望まれるが、医師には高い技術スキルが求められる。従って、手術スキルのトレーニングが非常に大切だが、トレーニングのための環境が不十分である。現在は、実際の手術室内で指導医の下で研修を行っているが、やはり危険性は高いために、患者の理解が得られにくくなっている。
【0006】
一方、動物による研修では腹腔などはブタなどが利用できるが、あまりに形状が人体と異なりすぎて利用できない部位も多い。さらに動物を用いた手術トレーニングは手術室・麻酔などヒトの手術と同じ装置を必要とし、生きた動物の確保が必要である等の理由から高価になる問題がある。また、動物愛護の観点から、手術トレーニングに利用することが困難となってきている。
【0007】
献体による研修はたいへん望ましいが、献体は年々希少となっており、研修の機会は限定される。米国関節鏡学会では、手術研修の講習会にて精巧な模型を用いているが、現在の人体模型はバリエーションが少なく、個別の患者への対応はできてはいない。また模型は一般に高価で丈夫にできているが、丈夫すぎて生体なら壊れる力を加えても壊れず、破壊を伴う操作のトレーニングには不向きである。
【0008】
VRシステムは現在多くの研究が行われていて、腹腔鏡下手術における初歩の練習には有効であると考えられる。これは腹腔鏡下内視鏡手術においては、基本的に、鉗子など手術器具の体内への侵入部分(トロッカール)および手術操作を行う器具先端部分の2点での接触に絞られるため、その2点での力を計算すれば良いというシステム構築上の利点があるためであるが、力フイードバック(触覚の表示)に関しては、その質に課題が多い。具体的には、手術器具と患者の身体との多点接触の実時間での計算及び表示が困難で、「かたさ」の表現に限界がある。また使用する手術器具がそのシステム独自のものに限定される、などの問題点がある。さらに、手術前のシミュレーションを目的として、個々の患者データをシステムに取り込むことはできていない。
【0009】
そこで患者の個人データを用いた、安価で質の高い手術計画・術前シミュレーションシステムが要望され、更に手術スキルレベルの評価が可能なトレーニングシステムがより望ましい。
【0010】
【課題を解決するための手段】
この課題、新たなニーズを満たすことを目的に鋭意検討を行った結果、本発明を完成した。つまり各種センサを装着・内蔵あるいは各種センサで監視された医用器具類あるいは模擬医用器具類を用いて、各種センサを装着・内蔵あるいは各種センサで監視された人体模型に対して、内視鏡下手術操作などの低侵襲医療行為のトレーニングを行ない、トレーニング中に各種センサにて情報を取得し、トレーニング中の諸動作履歴を、その場であるいは遠隔地において、逐一記録・再生することができ、操作の技術の善し悪しの目安を決定・表示することができるトレーニングシステムを完成した。
【0011】
本システムは以下の流れを持つ。
(1) 術前に患者のCTなど医用画像を撮影し、患者の個人データを採集する。
(2) 必要な部位を画像上で指定する。
(3) ラピッドプロトタイピング装置などによる破壊操作が可能な3次元詳細模型を作成する。
(4) この詳細模型をセンサ付き人体模型にセットする。
(5) このセットしたセンサ付き人体模型を使い、手術前に手術経路などの計画、事前シミュレーションを行う。
(6) これによって手術の安全性を向上させ、患者への負担を低減することができる。
本システムによって操作者のスキルレベルを評価することができ、手術トレーニングの効率および術前シミュレーションの質を向上させることが出来る。
【0012】
本発明は、各種センサを装着・内蔵あるいは各種センサで監視された医用器具類あるいは模擬医用器具類を用いて、各種センサを装着・内蔵あるいは各種センサで監視された人体模型に対して、内視鏡下手術操作などの低侵襲医療行為のトレーニングを行ない、トレーニング中に各種センサにて情報を取得し、トレーニング中の諸動作履歴を、その場であるいは遠隔地において、逐一記録・再生することができる低侵襲医療行為トレーニングシステムを提供する。
【0013】
また、履歴およびそれらをもとに記録したトレーニング中の諸動作履歴を、再生・再現して観察することができる。また、トレーニング中あるいはトレーニング終了後に、取得した各種センサ情報およびそれらをもとに記録したトレーニング中の諸動作を、その場であるいは遠隔地において、それ以前に記録に作成されたセンサ情報や動作履歴と比較して表示することができる。
【0014】
また、記録したトレーニング中の諸動作を、それ以前に記録・作成されたセンサ情報や動作履歴およびそれらを処理して得られる評価指標に照らし、その善し悪しの目安を決定・表示することができる。また、善し悪しの目安により、被訓練者の技術レベルを判定する機能を持つようにすることができる。さらには、判定された被訓練者の技術レベルに応じて、トレーニングメニューおよびトレーニングプログラムを選択・表示する機能を持つようにすることができる。
【0015】
本発明は、センサ及びアクチュエータが設けられた第1手段と、センサ及びアクチュエータが設けられた第2手段と、前記センサ及びアクチュエータを制御及び情報処理を行う制御・情報処理部とを備えていることを特徴とするトレーニングシステムを提供する。
【0016】
また、本発明は、センサ及びアクチュエータが設けられた人体模型と、センサ及びアクチュエータが設けられた器具手段と、前記センサ及びアクチュエータを制御及び情報処理を行う制御・情報処理部とを備え、前記器具手段を用いて前記人体模型に対して医療行為のトレーニングを行い、該トレーニング中に前記制御・情報処理部が前記センサからの情報を取得し、トレーニング中の動作履歴を逐一記録・再生することができることを特徴とするトレーニングシステムを提供する。
【0017】
トレーニングシステムは、トレーニング中あるいはトレーニング終了後に、トレーニング中の動作を、予め記録された動作履歴と比較して表示することができる情報表示部を備えることができる。また、トレーニングシステムは、トレーニング中の動作を、予め記録された評価指標に照らし、その善し悪しの目安を決定・表示することができる。
【0018】
また、トレーニングシステムは、善し悪しの目安により、被訓練者の技術レベルを判定する手段を備えることができるし、判定手段によって判定された被訓練者の技術レベルに応じて、トレーニングメニューおよびトレーニングプログラムを選択・表示する手段を備えることもできる。さらに、トレーニングシステムは、内視鏡下手術操作などの低侵襲医療行為のトレーニングシステムとして用いることができる。
【0019】
【発明の実施の形態】
以下、本発明にかかるトレーニングシステムの実施の形態について図面を参照しながら述べる。図1には、トレーニングシステムの概略図を示している。図1において、符号100は、オペレータを示しており、このオペレータは、トレーニングを受ける人(被訓練者)、あるいは、手術シミュレーションを行う医師などである。符合110は、情報表示部を示している。情報表示部110は、患者(ヒトあるいは動物)のモデル(実体模型)111と、実物あるいは模擬医療操作(手術)器具類113と、外部モニタなどの情報ディスプレイ手段(情報表示装置)115とを主に備えている。また、符合116は、付加的な外部センサ類を示しており、例えば、オペレータ100の操作中の様子をビデオ映像として取得するために設けることができる。実体模型111は、センサ類及びアクチュエータ類112が付加あるいは内蔵されて設けられている。また、実物あるいは模擬医療操作(手術)器具類113にも、センサ類及びアクチュエータ類114が付加あるいは内蔵されて設けられている。また、符合120は、制御及び情報処理部を示している。この制御及び情報処理部120は、患者モデルデータ部121と、医療操作履歴データ部122と、医療操作評価部123と、トレーニングメニュー管理部124とを主に備えており、センサ類及びアクチュエータ類112,114,116からの情報を収集、記録、加工、情報表示部110を通じて情報の表示、センサ類及びアクチュエータ類112,114の制御・駆動を行なうためのものである。
【0020】
上記オペレータ100は、器具類113を用いて実体模型111に対して医療操作を行うことができる。この操作時において実体模型111に加えられた操作のデータは、センサ類及びアクチュエータ類112によって医療操作履歴データ部122に送られ、医療操作履歴データ部122で操作履歴データとして記録される。また、この操作時においてオペレータ100が器具類113を用いることによって器具類113に加えられた操作データは、センサ類及びアクチュエータ類114によって医療操作履歴データ部122に送られ、医療操作履歴データ部122で操作履歴データとして記録される。医療操作履歴データ部122は現在進行中の操作および過去の操作を記録するためのものである。また、患者モデルデータ部121には、後述するように実体模型111のもととなった医用画像や形状データなどに基づいて作成された患者モデルデータが蓄えられており、この患者モデルデータは、上記二つの操作履歴データと共に医療操作評価部123に送られ、これらのデータに基づいて医療操作評価部123は、オペレータ100の熟練度、患者モデル(実体模型)111への侵襲度等を評価する。医療操作評価部123によって評価された評価結果は、情報表示装置115を通じてオペレータに表示されることになる。情報表示装置115は、このほかにも、オペレータ100の操作情報や、器具類113の方向・位置などの情報を表示することができるようになっている。さらには、オペレータ100に対しトレーニングのための指示(次に行う操作の説明など)および、現在の操作データや医療操作履歴データ部122に記録された過去の操作履歴データなどを表示することができるようになっている。表示方法は視覚・聴覚・触覚など各感覚モダリティに応じた方法が考えられる。また、上記評価結果に応じてトレーニングメニュー管理部124に予め蓄積されているトレーニングメニューから適切なものを選択してオペレータ100に表示される。トレーニングメニュー管理部124には、トレーニングの手順データなどが蓄積されている。
【0021】
図2には、内視鏡下副鼻腔手術に適用されたトレーニングシステムの一例を示している。なお、このシステムは、内視鏡下副鼻腔手術以外の手術トレーニングにも応用可能である。図2において、符合20は、情報表示装置(この場合は画像情報表示装置)115にコンピュータグラフィックスで表示された患者モデルデータを示している。また、符合21で示す太い点線は、情報表示装置(この場合は画像情報表示装置)115にコンピュータグラフィックスで表示された医療操作履歴データを示しており、自分以外のオペレータ(例えば熟練した医師)の操作軌跡としての医療操作履歴データを表示することも可能である。また、符合22で示す細い折れ線は、情報表示装置(この場合は画像情報表示装置)115にコンピュータグラフィックスで表示された医療操作履歴データの一つであるオペレータ100の操作軌跡を示しており、符合23は、医療操作履歴データの一つであるオペレータ100によって操作されている器具類113の方向・位置を示している。オペレータ100の操作軌跡22を熟練した医師の軌跡21と重ね合わせて表示することで、オペレータ100が熟練医師の操作を速やかに学習することが可能となる。また、トレーニングタスク終了後に、記録されたオペレータ100の医療操作履歴データ22を熟練医師の操作履産データ21に重ね合わせ表示して操作を「再生」することも可能である。これにより、オペレータ100の自主学習を補助するだけでなく、その場にいない指導者がオペレータ100の操作を再生観察することを可能とし、適切な指導を行なうことが可能となる。なお、符合24は、オペレータと同じ場所に、操作時に設定される必要がある機器の範囲を示す。
【0022】
被訓練者(オペレータ)100は、センサ類及びアクチュエータ類114を備えた器具類113を用いて、センサ類及びアクチュエータ類112を備えた実体模型111に対して手術操作を行う。なお、外部センサ類(例えば画像記録装置や位置記録装置など)116を備えていても良い。実体模型111の手術対象部位は、精密な模型111−1となっており、この精密模型111−1の形状などのデータは、患者モデルデータとして患者モデルデータ部121に蓄えられている。患者モデルデータは、コンピュータグラフィックスで情報表示装置(この場合は画像情報表示装置)115に表示され(符合20で示す)、同時に、器具類113の位置・方向もコンピュータグラフィックスで情報表示装置(この場合は画像情報表示装置)115に表示される(符合23で示す)。符合22で示す細い折れ線で示されたオペレータ100の操作軌跡と、符合23で示す器具類113の位置・方向は、センサ類及びアクチュエータ類112,114からの情報によりリアルタイムに再描画され、器具類113の実体模型111の精密模型111−1内部での位置および熟練者の軌跡(あるいは予定経路)との差をその場で把握することができるようになっている。熟練者の軌跡などを手本として、3次元的な手術器具の操作技術の習得が可能である。
【0023】
制御及び情報処理部120は、医療操作評価部123にて評価されたオペレータ100の熟練度、患者モデル111への侵襲度を、情報表示装置115で表示することにより、あるいは、センサ類及びアクチュエータ類112,114 を動作させることにより、オペレータ100に警告を発したり教示を行なう。具体的には、音声による侵襲度や進行方向に関する助言や警告、あるいは危険部位への過度の接近を振動により伝える、などが考えられる。
【0024】
次に、図3を参照しながら、遠隔地への情報表示と遠隔地からの指導について説明する。符合24(図2参照)は、オペレータと同じ場所に、操作時に設定される必要がある機器の範囲を示しているが、この符合24で示す構成要素は、直接あるいは制御及び情報処理部120を介してネットワーク回線で接続することが可能であり、オペレータとは遠隔地にいる指導者30も情報表示装置115’及び制御及び情報処理部120’を用いて、制御及び情報処理部120に蓄積された情報を観察・再生することができる。また、複数の遠隔地の指導者31も、情報表示装置115’及び制御及び情報処理部120’(図示せず)を用いて、上記情報を受け取り、指導をすることなどが可能である。
【0025】
図4には、情報提示のその他の一例を示している。図4において、符合115−1は、器具類113の操作軌跡(折れ線)に、患者モデルに与えられた力が大きかった地点とその時の力の大きさ・方向をコンピュータグラフィックスにて矢印41で表現して重ね合わせ表示した例である。これにより、手術具が、どこで患者の体内にぶつかって侵襲を与えていたかを的確に知ることができる。これは実時間表示、履歴データ再生、いずれの場面でも可能である。また、符合115−2は、上述と同じ情報を、時系列で表示した例である。一般に、操作履歴データ(図示せず) として蓄積されるデータは、このような (計測時刻、センサ値) の組み合わせの集まりである。
【0026】
図5には、内視鏡下副鼻腔手術の術前シミュレーションに適用されたトレーニングシステムの一例を示している。なお、このシステムは、内視鏡下副鼻腔手術以外の手術にも適用可能である。図5において、符合51は、術前に撮影された患者の医用画像データを示しており、この医用画像データ51に基づいて破壊可能でかつ生体と類似の力学的特性を持つ3次元精密患者詳細モデル(精密模型)111−1及び患者モデル(実体模型)111のデータを作成する。より具体的に説明すると、まず、医用画像データ51として用いる医用画像(例えばX線CT画像)を撮影する。そして、この医用画像より必要な部位を選択する。この例では、顔表面と鼻腔・副鼻腔を抽出し、患者モデルデータ部121で3次元精密患者詳細モデル(精密模型)111−1のデータを作成する。なお、この作成時に、患者モデル本体111 に装着可能な形状に上記データを作成しておく。このデータからラピッドプロトタイピング装置などを用いて破壊可能でかつ生体と類似の力学的特性を持つ3次元精密患者詳細モデル(精密模型)111−1を作成する。
【0027】
前述の通り、オペレータ(この場合は手術を行う医師)100が使用する器具類113には、センサ類及びアクチュエータ類114が装着されている。また、オペレータ100、患者モデル本体111、及び器具類113を外部から観察するための付加的な外部センサ類116が設けられている。この外部センサ類116としては、例えば、画像記録装置や、音声記録装置、画像による位置記録装置、温度記録装置などである。
【0028】
次に、センサ類及びアクチュエータ類112が備えられた患者モデル本体111 に患部の詳細モデル111−1を装着し、想定される複数の手術方法(手技)を実際に行ない、その操作履歴データを医療操作履歴データ部122で取得する。これが、手術の術前シミュレーションとなる。センサ類112,114,116からの情報は、制御及び情報処理部120に集められ、操作履歴データとして医療操作履歴データ部122に蓄積される。この蓄積(取得)された操作履歴データをそれぞれの手技について医療操作評価部123で評価を行ない、情報表示装置115によって評価結果(複数の手術手技による操作履歴データの評価結果)115−bが表示(列挙表示)される。この評価結果115−bは、複数の手術手技による操作履歴データの評価結果を列挙表示した一例であり、異なる手技・経路による手術シミュレーション結果のデータ(手術時間や操作力情報 など)が表示されている。これにより、実際に手術で採用するべき手術手技・経路の比較・選択を行ない、あわせて操作者のその手技における熟練度の把握が可能となる。また、符合115−aで示すように、操作履歴データも情報表示装置115によって表示(表示)される。すなわち、シミュレーションで採用した異なる手技・経路によるシミュレーションの結果のデータ(手術時間や操作力情報 など)が情報表示装置115によって表示される。また、符合115−aで示す一例は、詳細モデル111−1の形状データ20、器具類113の医療操作履歴データ21、器具類113の方向・位置23、及び詳細モデル111−1にかかった力の位置・方向・大きさ41を表示しているものである。
【0029】
実際に、センサ付きの手術トレーニングシステムを作成したものを図6に示す。精密な患者のヒト鼻腔モデル111をラピッドプロトタイピング技術により作成し、その底部に6軸力・トルクセンサ(株式会社ニッタ:IFS−67M25A 50−I40)112を、また頭部に6自由度光学式位置センサ(Northern Digital Inc., U.S.A. : Hybrid Polaris)114を取り付けた。また、手術用内視鏡(有限会社 新興光器製作所:鼻用硬性内視鏡、直径 4mm)113に6自由度光学式位置センサ114’を装着した。センサからの情報は情報処理部および画像表示部120を経てモニタ115に画像として表示される。
【0030】
図7及び図8にモニタ115に表示されるトレーニング用画面の例を示す。画面中央は内視鏡の画像であり、右下はコンピュータグラフィクスで描いた患者モデル111およびセンサで計測されたモデルにかかっている力201とトルク202の大きさである。また、画面両端に描かれた線204は、内視鏡の画像の水平線を表現しており、これは患者モデルに対して水平を保つことが要求される。すなわち、画像水平線204が水平線203と重なっているのが正しい内視鏡の状態である。この画像水平線が本来の位置からずれていることに気づかないまま手術操作を行うと、予定していなかった臓器を傷つけることになり、大変危険であるが、これは初心者にありがちな問題点である。
【0031】
本実験システムを用いて、同じ手術操作を行った場合に、力・トルクの積算値、内視鏡先端軌跡の長さ、内視鏡先端速度の周波数分布などのセンサ計測値から導出される指標を計測する実験を行った結果、いずれの指標にも熟練医師と非医療従事者の間で大きく差があることが確認された。また、医療関係者より、内視鏡画像の水平線および力・トルクの画像によるフィードバックは、初心者のトレーニングに有効であるとのコメントを得た。
【0032】
【発明の効果】
本発明によれば、以下のような効果を奏する。
(1)術前の計画立案およびシミュレーションが3次元空間で行えるため、画像のみによるシミュレーションに比べ患者治療において確実性・熟練度を増すことができる。
(2)手術シミュレーション中の各種センサ値から患者に無理な力がかかっていないかどうかなどを知ることができ、複数の手術手技の比較検討が可能となる。従って、本システムを利用することにより、手術の安全性が向上し、手術時間の短縮も期待できる。
(3)本システムによるトレーニングによって、実際の患者での「研修」をする前にある程度の技術レベルに到達することが可能であり、医療事故の低減を可能とする。
(4)本システムではスキルレベル評価が可能であるため、被訓練者が自習する率を高め、熟練した医師等による訓練者の指導時間が減少し、トレーニングの効率が向上し、コストが低減される。
(5)多数の患者の形状・症例のデータを蓄積することができるため、それらのデータから典型的な症例を抽出し、トレーニングシステム用の模型のバリエーションを充実させることができ、「研修」終了時の技術レベルを大幅に向上させることができる。
【図面の簡単な説明】
【図1】図1は、システム概念図である。
【図2】図2は、内視鏡下副鼻腔手術のトレーニングシステムを示す図である。
【図3】図3は、遠隔地への情報表示と遠隔地からの指導を示す図である。
【図4】図4は、情報表示のその他の例を示す図である。
【図5】図5は、内視鏡下副鼻腔手術の術前シミュレーションを示す図である。
【図6】図6は、センサ付きの手術トレーニングシステムの例を示す図である。
【図7】図7は、トレーニング用画面の例を示す図である。
【図8】図8は、トレーニング用画面の例を示す図である。
【符号の説明】
100 オぺレータ
110 情報表示部
111 患者(ヒトあるいは動物)のモデル
112 センサ類及びアクチュエータ類
113 実物あるいは模擬医療操作器具類
114 センサ類及びアクチュエータ類
115 情報表示装置
116 付加的なセンサ類
120 制御部および情報処理部
121 患者モデルデータ
122 医療操作履歴データ
123 医療操作評価部
124 トレーニングメニュー管理部
[0001]
TECHNICAL FIELD OF THE INVENTION
TECHNICAL FIELD The present invention relates to an operation training system in a field in which a precision operation is required or a simulation before operation in training or training of operation operation. In addition, this system is used for preoperative planning and simulation of surgical procedures using actual surgical instruments. This makes it possible to compare and examine a plurality of procedures before surgery.
[0002]
[Prior art]
Various techniques are known for training in surgery (for example, see Patent Documents 1 to 9).
[0003]
[Patent Document 1]
JP 2001-005377 A [Patent Document 2]
JP-A-11-262542 [Patent Document 3]
JP-A-11-249548 [Patent Document 4]
Japanese Patent Publication No. 2002-510069 [Patent Document 5]
JP 2001-137384 A [Patent Document 6]
JP 2001-005378 A [Patent Document 7]
JP-A-11-231770 [Patent Document 8]
Japanese Patent Application Laid-Open No. 06-105877 [Patent Document 9]
Japanese Unexamined Patent Publication No. Hei 08-500021
As a more specific product, an emergency treatment simulator manufactured by Koken Co., Ltd. is known. In addition, as described in Patent Document 7, particularly in recent years, development of a training system using the VR technology has been active.
[0005]
[Problems to be solved by the invention]
Endoscopic surgery is desirable because it is less invasive and has less physical burden on patients, but doctors are required to have high technical skills. Thus, surgical skills training is very important, but the training environment is inadequate. Currently, training is conducted in the actual operating room under a supervising physician, but the risk is also high, and it is difficult for patients to understand.
[0006]
On the other hand, pigs can be used for the abdominal cavity in training with animals, but there are many parts that cannot be used because the shape is too different from the human body. Furthermore, surgery training using animals requires the same equipment as human surgery, such as operating rooms and anesthesia, and has a problem that it is expensive because it is necessary to secure living animals. In addition, from the viewpoint of animal welfare, it has become difficult to use it for surgical training.
[0007]
Training with donations is highly desirable, but donations are rare each year and training opportunities are limited. At the American Society of Arthroscopy, elaborate models are used in training courses for surgical training, but the current phantoms have few variations and cannot respond to individual patients. Also, models are generally expensive and durable, but they are too durable and do not break when subjected to the force of breaking down a living body, making them unsuitable for training in destructive operations.
[0008]
The VR system is currently undergoing a great deal of research, and is considered to be useful for basic training in laparoscopic surgery. This is because, in laparoscopic endoscopic surgery, basically, the contact is limited to two points, that is, a part where a surgical instrument such as forceps enters the body (trocar) and a tip part of the instrument for performing a surgical operation. This is because there is an advantage in the construction of the system that it is sufficient to calculate the force at a point, but there are many issues regarding the quality of force feedback (display of tactile sensation). Specifically, it is difficult to calculate and display the multipoint contact between the surgical instrument and the patient's body in real time, and the expression of “hardness” is limited. In addition, there is a problem that the surgical instruments to be used are limited to those unique to the system. Furthermore, individual patient data has not been captured in the system for the purpose of pre-operative simulation.
[0009]
Therefore, an inexpensive and high-quality surgery planning / preoperative simulation system using personal data of a patient is demanded, and a training system capable of evaluating a surgical skill level is more desirable.
[0010]
[Means for Solving the Problems]
As a result of diligent studies aimed at satisfying this problem and new needs, the present invention has been completed. In other words, using medical instruments or simulated medical instruments with various sensors attached / built-in or monitored by various sensors, a human body model with various sensors attached / built-in or monitored by various sensors is used for endoscopic surgery. Training of minimally invasive medical practice such as operation is performed, information is acquired by various sensors during training, and various operation histories during training can be recorded and played back on the spot or at a remote location. Has completed a training system that can determine and display an indication of whether technology is good or bad.
[0011]
This system has the following flow.
(1) A medical image such as a CT of a patient is taken before the operation, and personal data of the patient is collected.
(2) Specify the required part on the image.
(3) Create a three-dimensional detailed model that can be destroyed by a rapid prototyping device.
(4) This detailed model is set on a human model with a sensor.
(5) Using the set human model with the sensor, planning of the operation route and the like and simulation in advance are performed before the operation.
(6) Thereby, the safety of the operation can be improved, and the burden on the patient can be reduced.
With this system, the skill level of the operator can be evaluated, and the efficiency of surgical training and the quality of preoperative simulation can be improved.
[0012]
The present invention uses medical instruments or simulated medical instruments to which various sensors are attached / built-in or monitored by various sensors, and to endoscope a human body model to which various sensors are attached / built-in or monitored by various sensors. Training in minimally invasive medical practices such as mirror surgery, acquiring information with various sensors during training, and recording and playing back various operation histories during training, either on the spot or at remote locations Provide a minimally invasive medical practice training system.
[0013]
In addition, the history and various operation histories during training recorded based on the history can be reproduced and reproduced and observed. In addition, during or after training, the various sensor information acquired and the various actions during training recorded based on them can be recorded on the spot or at a remote location, using the sensor information and operation history previously recorded. Can be displayed in comparison with.
[0014]
In addition, the recorded actions during the training can be determined and displayed based on sensor information and operation histories recorded and created before that, and evaluation indices obtained by processing them, to thereby determine the quality of the actions. In addition, a function for determining the skill level of the trainee can be provided based on good or bad criteria. Furthermore, a function of selecting and displaying a training menu and a training program according to the determined skill level of the trainee can be provided.
[0015]
The present invention includes a first unit provided with a sensor and an actuator, a second unit provided with a sensor and an actuator, and a control / information processing unit that controls and processes information on the sensor and the actuator. A training system characterized by the following is provided.
[0016]
The present invention also provides a human phantom equipped with a sensor and an actuator, instrument means provided with a sensor and an actuator, and a control / information processing unit for controlling and processing information on the sensor and the actuator, Training the medical action on the phantom using means, the control / information processing unit acquires information from the sensor during the training, and records and reproduces the operation history during the training one by one. Provide a training system characterized by what can be done.
[0017]
The training system can include an information display unit that can display the operation during the training during or after the training by comparing the operation during the training with a previously recorded operation history. In addition, the training system can determine and display a measure of good or bad by illuminating the operation during training with an evaluation index recorded in advance.
[0018]
Also, the training system can include means for determining the skill level of the trainee based on good or bad, and a training menu and a training program are set according to the skill level of the trainee determined by the determination means. Means for selecting and displaying can also be provided. Further, the training system can be used as a training system for minimally invasive medical practices such as endoscopic surgical operations.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of a training system according to the present invention will be described with reference to the drawings. FIG. 1 shows a schematic diagram of a training system. In FIG. 1, reference numeral 100 denotes an operator, such as a trainee (trainee) or a doctor performing a surgery simulation. Reference numeral 110 indicates an information display unit. The information display unit 110 mainly includes a patient (human or animal) model (real model) 111, real or simulated medical operation (surgery) instruments 113, and information display means (information display device) 115 such as an external monitor. In preparation. Reference numeral 116 indicates additional external sensors, which can be provided, for example, to acquire a state during operation of the operator 100 as a video image. The real model 111 is provided with sensors or actuators 112 added or incorporated therein. Further, sensors and actuators 114 are added to or incorporated in the real or simulated medical operation (surgery) instruments 113. Reference numeral 120 indicates a control and information processing unit. The control and information processing unit 120 mainly includes a patient model data unit 121, a medical operation history data unit 122, a medical operation evaluation unit 123, and a training menu management unit 124. , 114, and 116 for collecting, recording, processing, displaying information through the information display unit 110, and controlling and driving the sensors and actuators 112 and 114.
[0020]
The operator 100 can perform a medical operation on the physical model 111 using the instruments 113. The data of the operation applied to the real model 111 at the time of this operation is sent to the medical operation history data unit 122 by the sensors and actuators 112 and recorded as operation history data in the medical operation history data unit 122. The operation data added to the instruments 113 by the operator 100 using the instruments 113 at the time of this operation is sent to the medical operation history data section 122 by the sensors and actuators 114, and the medical operation history data section 122 Is recorded as operation history data. The medical operation history data section 122 is for recording the current operation and the past operation. The patient model data section 121 stores patient model data created based on medical images and shape data based on the real model 111 as described later. The medical operation evaluation unit 123 is sent to the medical operation evaluation unit 123 together with the two operation history data, and based on these data, the medical operation evaluation unit 123 evaluates the skill of the operator 100, the degree of invasion of the patient model (real model) 111, and the like. . The evaluation result evaluated by the medical operation evaluation unit 123 is displayed to the operator through the information display device 115. The information display device 115 is also capable of displaying operation information of the operator 100 and information such as the direction and position of the instruments 113. Further, an instruction for training (eg, description of an operation to be performed next) to the operator 100, current operation data, past operation history data recorded in the medical operation history data unit 122, and the like can be displayed. It has become. As a display method, a method according to each sensory modality such as sight, hearing, touch, etc. can be considered. Further, an appropriate training menu is selected from the training menus stored in advance in the training menu management unit 124 in accordance with the evaluation result and displayed to the operator 100. The training menu management unit 124 stores training procedure data and the like.
[0021]
FIG. 2 shows an example of a training system applied to endoscopic sinus surgery. This system can also be applied to surgical training other than endoscopic sinus surgery. In FIG. 2, reference numeral 20 denotes patient model data displayed on the information display device (in this case, the image information display device) 115 in computer graphics. A thick dotted line indicated by reference numeral 21 indicates medical operation history data displayed on the information display device (in this case, the image information display device) 115 by computer graphics, and is represented by an operator other than the operator (eg, a skilled doctor). It is also possible to display medical operation history data as the operation trajectory. The thin broken line indicated by reference numeral 22 indicates the operation trajectory of the operator 100, which is one of the medical operation history data displayed on the information display device (in this case, the image information display device) 115 by computer graphics, Reference numeral 23 indicates the direction / position of the instruments 113 operated by the operator 100, which is one of the medical operation history data. By displaying the operation trajectory 22 of the operator 100 so as to overlap the trajectory 21 of the skilled doctor, the operator 100 can quickly learn the operation of the skilled doctor. Further, after the training task is completed, the recorded medical operation history data 22 of the operator 100 can be superimposed and displayed on the operation and labor data 21 of the skilled doctor to "reproduce" the operation. This not only assists the independent learning of the operator 100, but also enables an instructor who is not present to replay and observe the operation of the operator 100, so that appropriate guidance can be provided. Reference numeral 24 indicates a range of devices that need to be set at the time of operation at the same place as the operator.
[0022]
The trainee (operator) 100 performs a surgical operation on the real model 111 having the sensors and actuators 112 using the instruments 113 having the sensors and actuators 114. Note that an external sensor (for example, an image recording device or a position recording device) 116 may be provided. The operation target site of the real model 111 is a precise model 111-1, and data such as the shape of the precise model 111-1 is stored in the patient model data section 121 as patient model data. The patient model data is displayed on the information display device (in this case, the image information display device) 115 in computer graphics (indicated by reference numeral 20), and at the same time, the position and direction of the instruments 113 are displayed on the information display device (computer graphics). In this case, it is displayed on the image information display device 115 (indicated by reference numeral 23). The operation trajectory of the operator 100 indicated by a thin broken line indicated by reference numeral 22 and the position and direction of the instruments 113 indicated by reference numeral 23 are redrawn in real time based on information from sensors and actuators 112 and 114, and The difference between the position of the actual model 111 in the precision model 111-1 and the trajectory (or planned route) of the expert can be grasped on the spot. Using the trajectory of an expert as an example, it is possible to learn three-dimensional surgical instrument operation techniques.
[0023]
The control and information processing unit 120 displays the degree of skill of the operator 100 and the degree of invasion of the patient model 111 evaluated by the medical operation evaluation unit 123 on the information display device 115, or the sensors and actuators. By operating 112 and 114, a warning is issued or the operator 100 is instructed. Specifically, it is conceivable to give advice or a warning about the degree of invasion or the traveling direction by voice, or to convey an excessive approach to a dangerous part by vibration.
[0024]
Next, the display of information at a remote location and guidance from a remote location will be described with reference to FIG. Reference numeral 24 (see FIG. 2) indicates the range of devices that need to be set at the time of operation at the same place as the operator, but the components indicated by reference numeral 24 are used directly or by the control and information processing unit 120. The instructor 30 can be connected to the operator via a network line, and the instructor 30 located at a remote place from the operator can also use the information display device 115 ′ and the control and information processing unit 120 ′ to be stored in the control and information processing unit 120. Information can be observed and reproduced. In addition, the instructors 31 at a plurality of remote locations can receive the information and provide guidance using the information display device 115 ′ and the control and information processing unit 120 ′ (not shown).
[0025]
FIG. 4 shows another example of the information presentation. In FIG. 4, reference numeral 115-1 denotes a point on the operation trajectory (polyline) of the instruments 113 at which the force applied to the patient model is large and the magnitude and direction of the force at that time by an arrow 41 by computer graphics. It is an example of expressing and superimposing. As a result, it is possible to accurately know where the surgical tool hit the patient's body and invaded the patient. This is possible in any case of real-time display and history data reproduction. Reference numeral 115-2 is an example in which the same information as described above is displayed in chronological order. Generally, data accumulated as operation history data (not shown) is a collection of such combinations of (measurement time, sensor value).
[0026]
FIG. 5 shows an example of a training system applied to a preoperative simulation of endoscopic sinus surgery. This system can be applied to operations other than endoscopic sinus surgery. In FIG. 5, reference numeral 51 denotes medical image data of a patient photographed before the operation, and based on the medical image data 51, three-dimensional precise patient details that can be destroyed and have mechanical characteristics similar to a living body The data of the model (precision model) 111-1 and the patient model (real model) 111 are created. More specifically, first, a medical image (for example, an X-ray CT image) used as the medical image data 51 is captured. Then, a necessary part is selected from the medical image. In this example, the face surface, the nasal cavity, and the paranasal sinuses are extracted, and data of a three-dimensional precise patient detailed model (precision model) 111-1 is created by the patient model data unit 121. At the time of this creation, the above data is created in a shape that can be mounted on the patient model main body 111. From this data, a three-dimensional precise patient detailed model (precision model) 111-1 which is destructible and has mechanical characteristics similar to a living body is created using a rapid prototyping device or the like.
[0027]
As described above, the sensors 113 and the actuators 114 are mounted on the instruments 113 used by the operator (in this case, a doctor performing an operation). Further, additional external sensors 116 for observing the operator 100, the patient model main body 111, and the instruments 113 from outside are provided. The external sensors 116 include, for example, an image recording device, an audio recording device, a position recording device based on images, and a temperature recording device.
[0028]
Next, the detailed model 111-1 of the affected part is mounted on the patient model main body 111 equipped with the sensors and actuators 112, and a plurality of assumed surgical methods (procedures) are actually performed. It is acquired by the operation history data unit 122. This is a preoperative simulation of the operation. Information from the sensors 112, 114, and 116 is collected in the control and information processing unit 120, and is stored in the medical operation history data unit 122 as operation history data. The accumulated (acquired) operation history data is evaluated by the medical operation evaluation unit 123 for each procedure, and the information display device 115 displays an evaluation result (evaluation result of operation history data by a plurality of surgical procedures) 115-b. (Enumerated display). The evaluation result 115-b is an example in which evaluation results of operation history data by a plurality of surgical procedures are enumerated and displayed, and data (operation time, operation force information, and the like) of a surgical simulation result by different procedures and routes are displayed. I have. As a result, it is possible to compare and select a surgical technique / path to be actually employed in the surgery, and also to grasp the skill level of the operator in the technique. Further, as shown by reference numeral 115-a, the operation history data is also displayed (displayed) by the information display device 115. That is, the data (simulation time, operation force information, etc.) of the result of the simulation using the different procedures / paths adopted in the simulation is displayed by the information display device 115. An example indicated by reference numeral 115-a is the shape data 20 of the detailed model 111-1, the medical operation history data 21 of the instruments 113, the direction / position 23 of the instruments 113, and the force applied to the detailed model 111-1. The position, direction, and size 41 are displayed.
[0029]
FIG. 6 shows an actual surgical training system with sensors. A precise human nasal cavity model 111 of the patient is created by a rapid prototyping technique, and a 6-axis force / torque sensor (Nitta: IFS-67M25A 50-I40) 112 is provided on the bottom and an optical 6-degree-of-freedom is provided on the head. A position sensor (Northern Digital Inc., USA: Hybrid Polaris) 114 was attached. Further, a 6-DOF optical position sensor 114 'was attached to a surgical endoscope (Shinko Kogaku Seisakusho Co., Ltd .: rigid endoscope for nose, 4 mm in diameter). Information from the sensor is displayed as an image on the monitor 115 via the information processing unit and the image display unit 120.
[0030]
7 and 8 show examples of the training screen displayed on the monitor 115. FIG. The center of the screen is the image of the endoscope, and the lower right is the magnitude of the force 201 and the torque 202 applied to the patient model 111 drawn by computer graphics and the model measured by the sensor. Lines 204 drawn at both ends of the screen represent horizontal lines of the image of the endoscope, and are required to be kept horizontal with respect to the patient model. That is, it is a correct state of the endoscope that the image horizontal line 204 overlaps with the horizontal line 203. Performing a surgical operation without noticing that the horizontal line of the image is deviated from its original position may cause damage to unexpected organs, which is very dangerous, but this is a problem often encountered by beginners. .
[0031]
Indices derived from sensor measurement values such as the integrated value of force and torque, the length of the endoscope tip trajectory, and the frequency distribution of the endoscope tip speed when the same surgical operation is performed using this experimental system As a result of conducting an experiment to measure, it was confirmed that there was a large difference between a skilled physician and a non-medical worker in each index. In addition, medical professionals commented that the feedback of the horizontal line of the endoscope image and the force / torque image is effective for training of beginners.
[0032]
【The invention's effect】
According to the present invention, the following effects can be obtained.
(1) Since preoperative planning and simulation can be performed in a three-dimensional space, reliability and skill in patient treatment can be increased as compared with simulation using only images.
(2) It is possible to know whether or not an excessive force is applied to the patient from various sensor values during the surgery simulation, and it is possible to compare and examine a plurality of surgical procedures. Therefore, by using this system, the safety of the operation is improved and the operation time can be expected to be shortened.
(3) By the training by the present system, it is possible to reach a certain technical level before performing “training” with an actual patient, and to reduce medical accidents.
(4) Since the skill level evaluation is possible in this system, the trainees' self-learning rate is increased, the training time of trainees by trained doctors etc. is reduced, training efficiency is improved, and costs are reduced. You.
(5) Since data on the shapes and cases of a large number of patients can be accumulated, typical cases can be extracted from those data, and variations of models for training systems can be enriched. The technical level at the time can be greatly improved.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram of a system.
FIG. 2 is a diagram showing a training system for endoscopic sinus surgery.
FIG. 3 is a diagram showing information display to a remote place and guidance from a remote place;
FIG. 4 is a diagram showing another example of information display.
FIG. 5 is a diagram showing a preoperative simulation of endoscopic sinus surgery.
FIG. 6 is a diagram showing an example of a surgical training system with a sensor.
FIG. 7 is a diagram illustrating an example of a training screen.
FIG. 8 is a diagram illustrating an example of a training screen.
[Explanation of symbols]
Reference Signs List 100 Operator 110 Information display unit 111 Patient (human or animal) model 112 Sensors and actuators 113 Real or simulated medical operating instruments 114 Sensors and actuators 115 Information display device 116 Additional sensors 120 Control unit And information processing unit 121 patient model data 122 medical operation history data 123 medical operation evaluation unit 124 training menu management unit

Claims (7)

センサ及びアクチュエータが設けられた第1手段と、
センサ及びアクチュエータが設けられた第2手段と、
前記センサ及びアクチュエータを制御及び情報処理を行う制御・情報処理部とを備えていることを特徴とするトレーニングシステム。
First means provided with a sensor and an actuator;
Second means provided with a sensor and an actuator;
A training system comprising: a control / information processing unit that controls and processes information on the sensor and the actuator.
センサ及びアクチュエータが設けられた人体模型と、
センサ及びアクチュエータが設けられた器具手段と、
前記センサ及びアクチュエータを制御及び情報処理を行う制御・情報処理部とを備え、
前記器具手段を用いて前記人体模型に対して医療行為のトレーニングを行い、該トレーニング中に前記制御・情報処理部が前記センサからの情報を取得し、トレーニング中の動作履歴を逐一記録・再生することができることを特徴とするトレーニングシステム。
A human body model provided with sensors and actuators,
Instrument means provided with sensors and actuators;
A control / information processing unit that controls and processes information on the sensors and actuators,
Using the instrument means to train the human body model for medical practice, the control / information processing unit acquires information from the sensors during the training, and records and reproduces the operation history during the training one by one. A training system characterized by being able to.
請求項2に記載のトレーニングシステムにおいて、
トレーニング中あるいはトレーニング終了後に、トレーニング中の動作を、予め記録された動作履歴と比較して表示することができる情報表示部を備えていることを特徴とするトレーニングシステム。
The training system according to claim 2,
A training system, comprising: an information display unit capable of displaying an operation during the training during or after the training and comparing the operation during the training with an operation history recorded in advance.
請求項2又は3に記載のトレーニングシステムにおいて、
トレーニング中の動作を、予め記録された評価指標に照らし、その善し悪しの目安を決定・表示することができることを特徴とするトレーニングシステム。
The training system according to claim 2 or 3,
A training system characterized in that an action during training can be determined and displayed based on an evaluation index recorded in advance and an indication of the quality of the action.
請求項4に記載のトレーニングシステムにおいて、
前記善し悪しの目安により、被訓練者の技術レベルを判定する手段を備えているを特徴とするトレーニングシステム。
The training system according to claim 4,
A training system comprising means for determining a skill level of a trainee based on the standard of the quality.
請求項5に記載のトレーニングシステムにおいて、
前記判定手段によって判定された被訓練者の技術レベルに応じて、トレーニングメニューおよびトレーニングプログラムを選択・表示する手段を備えていることを特徴とするトレーニングシステム。
The training system according to claim 5,
A training system comprising means for selecting and displaying a training menu and a training program according to the trainee's skill level determined by the determining means.
請求項2乃至6のいずれか一項に記載のトレーニングシステムにおいて、該トレーニングシステムは、低侵襲医療行為のトレーニングシステムとして用いられることを特徴とするトレーニングシステム。The training system according to any one of claims 2 to 6, wherein the training system is used as a training system for minimally invasive medical practice.
JP2003179212A 2003-03-26 2003-06-24 Training system Pending JP2004348095A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003179212A JP2004348095A (en) 2003-03-26 2003-06-24 Training system
PCT/JP2004/004299 WO2004086335A1 (en) 2003-03-26 2004-03-26 Training system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003085819 2003-03-26
JP2003179212A JP2004348095A (en) 2003-03-26 2003-06-24 Training system

Publications (1)

Publication Number Publication Date
JP2004348095A true JP2004348095A (en) 2004-12-09

Family

ID=33100389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003179212A Pending JP2004348095A (en) 2003-03-26 2003-06-24 Training system

Country Status (2)

Country Link
JP (1) JP2004348095A (en)
WO (1) WO2004086335A1 (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006204832A (en) * 2005-01-31 2006-08-10 Asahi Denshi Kenkyusho:Kk Patient simulating robot for rehabilitation education and rehabilitation education method
WO2006085564A1 (en) * 2005-02-09 2006-08-17 Koken Co., Ltd. Medical training model device
JP2007185400A (en) * 2006-01-16 2007-07-26 Univ Waseda Medical purpose technique evaluation system, technique evaluation device, and program for technique evaluation device
WO2008041456A1 (en) * 2006-09-29 2008-04-10 Waseda University Medical technique evaluation system, technique evaluation device, technique evaluation device program
JP2008134373A (en) * 2006-11-28 2008-06-12 Mitsubishi Precision Co Ltd Method and system of preparing biological data for operation simulation, operation simulation method, and operation simulator
JP2010210710A (en) * 2009-03-06 2010-09-24 Terumo Corp Syringe, simulated arm for injection practical skill, and injection practical skill recording and reproducing device
JP2011112523A (en) * 2009-11-27 2011-06-09 Sony Corp Information processor, information processing method, and program of the same
JP2012521568A (en) * 2009-03-20 2012-09-13 ジョンズ ホプキンス ユニバーシティ Method and system for quantifying technical skills
JP2012181363A (en) * 2011-03-01 2012-09-20 Morita Mfg Co Ltd Medical practice training system
JP2014032268A (en) * 2012-08-02 2014-02-20 J Morita Corp Medical treatment simulation apparatus
KR20140040746A (en) * 2011-05-13 2014-04-03 머티어리얼리스 덴탈 엔.브이. Endodontic treatment simulation system
KR101386338B1 (en) * 2013-04-23 2014-04-17 동명대학교산학협력단 Injection educational system using a human model.
CN103918020A (en) * 2011-11-08 2014-07-09 皇家飞利浦有限公司 Interacting with a three-dimensional object dataset
JP2015512094A (en) * 2012-02-17 2015-04-23 レールダル メディカル アクスイェ セルスカプ System and method for maintaining competence
JP2016500157A (en) * 2012-11-13 2016-01-07 エイドス−メディスン リミティッド・ライアビリティ・カンパニー Hybrid medical laparoscopic simulator
JP2016151750A (en) * 2015-02-19 2016-08-22 株式会社スリーディー Care training virtual reality system and evaluation system of care robot or care apparatus
JP2016536085A (en) * 2013-09-11 2016-11-24 ペッパス エヴァンゲロス ティー.PAPPAS, Evangelos T. System and method for patient specific radiotherapy treatment verification and quality assurance system
JPWO2018043299A1 (en) * 2016-08-31 2019-06-24 株式会社小松製作所 Image display system for work machine, remote control system for work machine, work machine and image display method for work machine
KR102052037B1 (en) 2018-05-25 2019-12-04 한국생산기술연구원 Sensor for sensing incision position and system for training cricothyrotomy
JP2020506436A (en) * 2017-02-14 2020-02-27 アプライド メディカル リソーシーズ コーポレイション Laparoscopic training system
WO2020138731A1 (en) * 2018-12-27 2020-07-02 경북대학교 산학협력단 Em sensor-based otolaryngology and neurosurgery medical training simulator and method
WO2020144806A1 (en) * 2019-01-10 2020-07-16 国立大学法人東海国立大学機構 Evaluation model for endoscopic transnasal surgery, simulated dura mater unit, and evaluation method for operative procedure
US10849688B2 (en) 2016-03-02 2020-12-01 Truinject Corp. Sensory enhanced environments for injection aid and social training
US10896627B2 (en) 2014-01-17 2021-01-19 Truinjet Corp. Injection site training system
US10902746B2 (en) 2012-10-30 2021-01-26 Truinject Corp. System for cosmetic and therapeutic training
WO2021054419A1 (en) * 2019-09-20 2021-03-25 株式会社Micotoテクノロジー Endoscopic image processing system and endoscopic image processing method
KR102274004B1 (en) * 2020-10-27 2021-07-08 최관용 Ultrasonic simulation system
KR20220111636A (en) * 2021-02-02 2022-08-09 경북대학교 산학협력단 simulator and method for medical practice for providing customized patient type
US11710424B2 (en) 2017-01-23 2023-07-25 Truinject Corp. Syringe dose and position measuring apparatus
JP7390769B1 (en) 2023-08-23 2023-12-04 国立大学法人 鹿児島大学 Veterinary medical technology improvement support device, veterinary medical technology improvement support system, veterinary medical technology improvement support method, and veterinary medical technology improvement support program
JP7432275B1 (en) 2023-07-28 2024-02-16 株式会社計数技研 Video display device, video display method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108523995A (en) * 2018-01-23 2018-09-14 上海交通大学医学院附属上海儿童医学中心 A kind of craniosynostosis surgery simulation system and its method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3198130B2 (en) * 1991-11-07 2001-08-13 株式会社東芝 Surgery simulation system
JPH11197159A (en) * 1998-01-13 1999-07-27 Hitachi Ltd Operation supporting system
JP3660521B2 (en) * 1999-04-02 2005-06-15 株式会社モリタ製作所 Medical training device and medical training evaluation method
JP3845746B2 (en) * 1999-06-23 2006-11-15 独立行政法人産業技術総合研究所 Human body model
JP3769469B2 (en) * 2001-03-28 2006-04-26 株式会社東芝 Operation training equipment

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006204832A (en) * 2005-01-31 2006-08-10 Asahi Denshi Kenkyusho:Kk Patient simulating robot for rehabilitation education and rehabilitation education method
WO2006085564A1 (en) * 2005-02-09 2006-08-17 Koken Co., Ltd. Medical training model device
US8480408B2 (en) 2005-02-09 2013-07-09 Koken Co., Ltd. Medical training model device
JP5069096B2 (en) * 2005-02-09 2012-11-07 株式会社高研 Model equipment for medical training
JP4544632B2 (en) * 2006-01-16 2010-09-15 学校法人早稲田大学 Medical procedure evaluation system
JP2007185400A (en) * 2006-01-16 2007-07-26 Univ Waseda Medical purpose technique evaluation system, technique evaluation device, and program for technique evaluation device
JP5083776B2 (en) * 2006-09-29 2012-11-28 学校法人早稲田大学 Medical procedure evaluation system
WO2008041456A1 (en) * 2006-09-29 2008-04-10 Waseda University Medical technique evaluation system, technique evaluation device, technique evaluation device program
KR101382515B1 (en) * 2006-09-29 2014-04-07 각코호진 와세다다이가쿠 Medical technique evaluation system, technique evaluation device, technique evaluation device program
JPWO2008041456A1 (en) * 2006-09-29 2010-02-04 学校法人早稲田大学 Medical procedure evaluation system, procedure evaluation apparatus, and program for procedure evaluation apparatus
JP2008134373A (en) * 2006-11-28 2008-06-12 Mitsubishi Precision Co Ltd Method and system of preparing biological data for operation simulation, operation simulation method, and operation simulator
JP2010210710A (en) * 2009-03-06 2010-09-24 Terumo Corp Syringe, simulated arm for injection practical skill, and injection practical skill recording and reproducing device
US10008129B2 (en) 2009-03-20 2018-06-26 The Johns Hopkins University Systems for quantifying clinical skill
US9196176B2 (en) 2009-03-20 2015-11-24 The Johns Hopkins University Systems and methods for training one or more training users
JP2012521568A (en) * 2009-03-20 2012-09-13 ジョンズ ホプキンス ユニバーシティ Method and system for quantifying technical skills
US9691290B2 (en) 2009-03-20 2017-06-27 The Johns Hopkins University Systems for quantifying clinical skill
US11342063B2 (en) 2009-11-27 2022-05-24 Sony Corporation Information processing apparatus, information processing method, and program
US10506167B2 (en) 2009-11-27 2019-12-10 Sony Corporation Information processing apparatus, information processing method, and program
US10091426B2 (en) 2009-11-27 2018-10-02 Sony Corporation Information processing apparatus, information processing method, and program
US8761468B2 (en) 2009-11-27 2014-06-24 Sony Corporation Information processing apparatus, information processing method, and program
JP2011112523A (en) * 2009-11-27 2011-06-09 Sony Corp Information processor, information processing method, and program of the same
US9615028B2 (en) 2009-11-27 2017-04-04 Sony Corporation Method of displaying a pathological microscopic image, an information processing apparatus, a non-transitory computer-readable medium, and an information processing system
US9177375B2 (en) 2009-11-27 2015-11-03 Sony Corporation Information processing apparatus, information processing method, and program
JP2012181363A (en) * 2011-03-01 2012-09-20 Morita Mfg Co Ltd Medical practice training system
US9694539B2 (en) 2011-05-13 2017-07-04 Maillefer Instruments Holding Sarl Endodontic treatment simulation system
KR20140040746A (en) * 2011-05-13 2014-04-03 머티어리얼리스 덴탈 엔.브이. Endodontic treatment simulation system
KR101886265B1 (en) * 2011-05-13 2018-08-07 덴츠플리 임플란츠 엔.브이. Endodontic treatment simulation system
JP2014516169A (en) * 2011-05-13 2014-07-07 メルフェール インストルメンツ ホールディング エスアエールエル Endodontic simulation system
US9773347B2 (en) 2011-11-08 2017-09-26 Koninklijke Philips N.V. Interacting with a three-dimensional object dataset
JP2015506002A (en) * 2011-11-08 2015-02-26 コーニンクレッカ フィリップス エヌ ヴェ Interaction with 3D object datasets
CN103918020A (en) * 2011-11-08 2014-07-09 皇家飞利浦有限公司 Interacting with a three-dimensional object dataset
JP2015512094A (en) * 2012-02-17 2015-04-23 レールダル メディカル アクスイェ セルスカプ System and method for maintaining competence
JP2014032268A (en) * 2012-08-02 2014-02-20 J Morita Corp Medical treatment simulation apparatus
US11854426B2 (en) 2012-10-30 2023-12-26 Truinject Corp. System for cosmetic and therapeutic training
US10902746B2 (en) 2012-10-30 2021-01-26 Truinject Corp. System for cosmetic and therapeutic training
US11403964B2 (en) 2012-10-30 2022-08-02 Truinject Corp. System for cosmetic and therapeutic training
JP2016500157A (en) * 2012-11-13 2016-01-07 エイドス−メディスン リミティッド・ライアビリティ・カンパニー Hybrid medical laparoscopic simulator
KR101386338B1 (en) * 2013-04-23 2014-04-17 동명대학교산학협력단 Injection educational system using a human model.
JP2016536085A (en) * 2013-09-11 2016-11-24 ペッパス エヴァンゲロス ティー.PAPPAS, Evangelos T. System and method for patient specific radiotherapy treatment verification and quality assurance system
US10238892B2 (en) 2013-09-11 2019-03-26 Evangelos T. Pappas System and method for patient-specific radiotherapy treatment verification and quality assurance system
US10896627B2 (en) 2014-01-17 2021-01-19 Truinjet Corp. Injection site training system
JP2016151750A (en) * 2015-02-19 2016-08-22 株式会社スリーディー Care training virtual reality system and evaluation system of care robot or care apparatus
US10849688B2 (en) 2016-03-02 2020-12-01 Truinject Corp. Sensory enhanced environments for injection aid and social training
US11730543B2 (en) 2016-03-02 2023-08-22 Truinject Corp. Sensory enhanced environments for injection aid and social training
JPWO2018043299A1 (en) * 2016-08-31 2019-06-24 株式会社小松製作所 Image display system for work machine, remote control system for work machine, work machine and image display method for work machine
US11710424B2 (en) 2017-01-23 2023-07-25 Truinject Corp. Syringe dose and position measuring apparatus
JP2020506436A (en) * 2017-02-14 2020-02-27 アプライド メディカル リソーシーズ コーポレイション Laparoscopic training system
JP7235665B2 (en) 2017-02-14 2023-03-08 アプライド メディカル リソーシーズ コーポレイション Laparoscopic training system
KR102052037B1 (en) 2018-05-25 2019-12-04 한국생산기술연구원 Sensor for sensing incision position and system for training cricothyrotomy
WO2020138731A1 (en) * 2018-12-27 2020-07-02 경북대학교 산학협력단 Em sensor-based otolaryngology and neurosurgery medical training simulator and method
WO2020144806A1 (en) * 2019-01-10 2020-07-16 国立大学法人東海国立大学機構 Evaluation model for endoscopic transnasal surgery, simulated dura mater unit, and evaluation method for operative procedure
CN113316810A (en) * 2019-01-10 2021-08-27 国立大学法人东海国立大学机构 Evaluation model for endoscopic transnasal surgery, simulated dura mater unit, and method for evaluating surgical mode
JPWO2020144806A1 (en) * 2019-01-10 2021-05-20 国立大学法人東海国立大学機構 Evaluation model for endoscopic nasal surgery, simulated dural unit, and method of evaluation of surgical procedure
WO2021054419A1 (en) * 2019-09-20 2021-03-25 株式会社Micotoテクノロジー Endoscopic image processing system and endoscopic image processing method
WO2022092703A1 (en) * 2020-10-27 2022-05-05 최관용 Ultrasound simulation system
KR102274004B1 (en) * 2020-10-27 2021-07-08 최관용 Ultrasonic simulation system
KR20220111636A (en) * 2021-02-02 2022-08-09 경북대학교 산학협력단 simulator and method for medical practice for providing customized patient type
KR102580178B1 (en) * 2021-02-02 2023-09-19 경북대학교 산학협력단 simulator and method for medical practice for providing customized patient type
JP7432275B1 (en) 2023-07-28 2024-02-16 株式会社計数技研 Video display device, video display method, and program
JP7390769B1 (en) 2023-08-23 2023-12-04 国立大学法人 鹿児島大学 Veterinary medical technology improvement support device, veterinary medical technology improvement support system, veterinary medical technology improvement support method, and veterinary medical technology improvement support program

Also Published As

Publication number Publication date
WO2004086335A1 (en) 2004-10-07

Similar Documents

Publication Publication Date Title
JP2004348095A (en) Training system
JP6916322B2 (en) Simulator system for medical procedure training
JP7453693B2 (en) Surgical training equipment, methods and systems
RU209329U1 (en) AUTOMATIC ADDITION OF THE ENDOSCOPIC VIDEO IMAGE
KR102523779B1 (en) Construction of a Surgical System with a Surgical Procedure Atlas
US5755577A (en) Apparatus and method for recording data of a surgical procedure
Satava Surgical education and surgical simulation
Abou-Elhamd et al. Simulation in ENT medical education
Kapoor et al. Haptics–Touchfeedback technology widening the horizon of medicine
KR20180058656A (en) Reality - Enhanced morphological method
US20210233429A1 (en) Mixed-reality endoscope and surgical tools with haptic feedback for integrated virtual-reality visual and haptic surgical simulation
JP2002272758A (en) Operation supporting device
US20190380780A1 (en) Mixed reality training system
Burns et al. Simulators for laryngeal and airway surgery
US20210312834A1 (en) Vibrotactile Method, Apparatus and System for Training and Practicing Dental Procedures
Howard et al. Improving precision in navigating laparoscopic surgery instruments toward a planar target using haptic and visual feedback
Singapogu et al. A perspective on the role and utility of haptic feedback in laparoscopic skills training
Brunozzi et al. NeuroVR™ simulator in neurosurgical training
JP2004348091A (en) Entity model and operation support system using the same
RU143299U1 (en) MEDICAL PROCEDURE MODELING SYSTEM (OPTIONS)
Hedican et al. Videotape mentoring and surgical simulation in laparoscopic courses
RU216092U1 (en) AUTOMATIC ADDITION OF THE ENDOSCOPIC VIDEO IMAGE
Ikuta et al. “Surgery recorder system” for recording position and force of forceps during laparoscopic surgery
Nistor et al. Immersive training and mentoring for laparoscopic surgery
Brunozzi et al. Role of immersive touch simulation in neurosurgical training

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20041124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060203

A131 Notification of reasons for refusal

Effective date: 20081201

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090326