JP2004348091A - 実体模型及びこれを用いた手術支援システム - Google Patents
実体模型及びこれを用いた手術支援システム Download PDFInfo
- Publication number
- JP2004348091A JP2004348091A JP2003151894A JP2003151894A JP2004348091A JP 2004348091 A JP2004348091 A JP 2004348091A JP 2003151894 A JP2003151894 A JP 2003151894A JP 2003151894 A JP2003151894 A JP 2003151894A JP 2004348091 A JP2004348091 A JP 2004348091A
- Authority
- JP
- Japan
- Prior art keywords
- model
- dimensional
- surgical instrument
- data
- divided
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Instructional Devices (AREA)
Abstract
【解決手段】ヒト、動物、有体物、あるいは計算結果より抽出した三次元データを、説明や操作に適するよう加工・分割した実体模型を備える。各々の分割模型あるいはその三次元データを与える事物にそれを操作するための器具あるいは位置を指し示すための器具を備えることもできる。三次元データの間で、互いの対応する操作するための器具あるいは位置を指し示すための器具が、三次元データにおいて対応する場所を操作するための機構を備えることもできる。三次元データ、分割した実体模型データ、器具、操作の履歴を記録する機能と、記録されたそれらのデータに基づき、後日、操作を再現する再生機能を備えることもできる。
【選択図】 図1
Description
【発明の属する技術分野】
本発明は、学校・病院にて学生・研修医の教育教材、あるいは患者の治療に関するインフォームドコンセントのための説明用資料、術前の手術計画立案・手術シミュレーションに利用するための手術支援システムに関するものである。
【0002】
【従来の技術】
従来、学校・病院にて学生・研修医の教育用教材、あるいは患者の治療に関するインフォームドコンセントのための説明用資料、術前の手術計画立案・手術シミュレーションに利用するための手段が知られている(例えば、特許文献1,2,3参照。)。また、市販品としても京都科学、(株)高研等の生体モデル製品が知られている。さらにはボリュームデータの可視化手法(Volume Visualization)、コンピュータ・グラフィックス(Computer Graphics, CG)等が計算機上でのボリュームデータや多面体データの可視化研究および可視化ソフトウェアとして知られている。
【0003】
【特許文献1】
特開2001−013869号公報
【特許文献2】
特開2001−005377号公報
【特許文献3】
特開平8−252272号公報
【0004】
またオーグメンテッド・リアリティ(Augmented Reality) は、現実世界に計算機の中にあるデータを、コンピュータグラフィックスなどで画像化した仮想世界を、実時間で重ねあわせ表示することで、あたかも現実のテーブルの上に仮想の模型が載っているかのように感じさせることができる技術である。これを実現するためには、重ねあわせ表示の可能なハーフミラーや、シースルー型液晶ディスプレイ等ディスプレイが用いられ、それを見ている人の視点位置を実時間計測し、それに応じて画像を高速に生成する必要がある。特に医療分野では、あらかじめ医用画像上で指定した点などを患者の体の外から眺めたように提示する、あるいは顕微鏡の画像に重ねて表示する、などの応用が研究されている。
【0005】
また、手術のナビゲーションシステムに関する技術が知られている(例えば、特許文献4,5,6参照。)。
【0006】
【特許文献4】
特開2001−013869号公報
【特許文献5】
特開平11−197159号公報
【特許文献6】
特開平8−215211号公報
【0007】
【発明が解決しようとする課題】
近年、広く普及してきている内視鏡下手術は患者の身体的負担が少なく、今後ますます普及が望まれるが、医師には空間把握能力をはじめとして高度な技術スキルが求められる。従って、教育・訓練が非常に大切であるが、そのための器具、手段等環境がいまだ不十分である。また、手術を行うための患部の空間情報を入手する手段についても、より簡便な方法が求められていた。
【0008】
CT、MRIなどの断層画像は2次元画像情報の集まりであるために、3次元構造を把握することが困難である。手術前にこれら断層像から構造を把握したつもりでも、やはり手術中に再度断層写真を見直すことも良くある。更に上記のような断層医用画像データを三次元的に表現するコンピュータ・グラフィックス(前記 Volume visualization など)では、ディスプレイそのものが二次元であるため、やはり三次元的な構造の把握には限界があった。
【0009】
オーグメンテッドリアリティ技術として知られているディスプレイ技術は、頭部に固定する小型の液晶あるいはCRTディスプレイを両眼用に備え、立体視を可能にさせるヘッドマウンテドッディスプレイなどを用いて、現実世界に仮想のデータを画像化したものを重ねあわせて表示しようと試みられているが、位置合わせの精度がいまだ十分でなくずれが生じる、ディスプレイが高価で解像度が低い、ディスプレイが邪魔になる、立体視による3次元情報提示が不完全で現実と重ね合わせるのが困難、現実の物体との前後関係がうまく表現できないなどの問題があり、未だ実用化はなされていない。
【0010】
現在手術ナビゲーションシステムとして商品化されているものもあるが一台数千万円程度と非常に高価である。これは患者の術前画像などの画像、およびそれを加工した画像が表示されるが、画像の表示方法は3面図が主流で、3次元位置を把握するには術者が頭の中で3面図から3次元形状を再構成しなければならず、わかりにくいものであった。また、視点を変えた方向からの断面図も表示できることが多いが、表示する画像の枚数が増えるとディスプレイ画面上で画像が重複してしまい、それらを一覧するためには個々の画像を縮小して表示せざるをえず、結果として解像度の低くなった小さい画像を見ることになり、細かいところがわからなくなるという問題があった。
【0011】
一方医師などにとって、3次元の形状を手で触って形状位置を確認したいという要求は大きいため、現在、触覚・力覚提示技術が VR(Virtual Reality、仮想現実感)技術として研究開発されているが、医療現場の要求する性能を満たすのはまだ先のことである。
【0012】
人体模型は、医療教育現場でも多く使われている教材である。実際の患者データでは骨の厚さ、体腔の形状、患部の状態、などが多様であるが、人体模型は一般にバリエーションが少なく、個別の患者の症例に対応できない。また、献体標本を樹脂で固めて切断した断層モデルも存在するが、大変に高価で希少であるが故に、破壊を伴う手術操作の訓練を対象としたものではなく、個別患者の手術の計画・術前のリハーサル・患者への症状や手術内容の説明には向いていない。そのため、個別の患者個人データを用いた、安価で、患者への説明・手術計画立案・手術中の三次元地図にも利用可能で、触れることが可能な高精細な実体模型を用いた三次元手術支援システムが望まれていた。
【0013】
【課題を解決するための手段】
これらの用件を満たす三次元手術支援システムについて鋭意研究の結果、手術の進行方向に応じた患者の3次元詳細分割模型を作成し、これを用いて手術支援を行なうシステムを完成した。
【0014】
まず、術前に患者のCTなど医用画像撮影を行う。この際には撮影が必要な部位を選択(segmentation)しその部位を複数の層に切りわける。なお各層の厚み、分割位置、方向、枚数、拡大率などは、手術方法・目的により変化する。このデータを元に3次元詳細分割模型を作成するが、この模型作成には試作品(prototype)を高速に(rapid)製造する技術であるラピッドプロトタイピング装置などを用いることで、安価に、かつ迅速に、分割模型を作製することができる。
【0015】
この分割模型を、患者への説明資料として用いることで、患者の手術への理解が深まる。複数の手術方法に応じた模型を作製し、手術前に手術方法を比載検討することが可能となり、より良い手術計画を立案することができる。また、手術中に手術器具の位置を分割模型上に機械的あるいは光学的手段にて再現し、分割模型を術中の三次元地図として利用する。これは2次元のディスプレイを用いた従来の手術支援システムに比べ、3次元的な空間配置の理解および術具と患部の位置関係の理解が格段に向上し、手術の安全性を高めることができる。
【0016】
本発明は、ヒト、動物、有体物、あるいは計算結果より抽出された三次元データを複数に切断して三次元分割データを作成し、該三次元分割データに基づいて作成された各分割模型で構成されていることを特徴とする実体模型を提供する。また、分割模型は、前記三次元分割データに基づいてラピッドプロトタイピング装置によって作成することができる。また、本発明は、請求項1又は2に記載の実体模型と、前記実体模型を操作する模型用器具とを備えていることを特徴とする手術支援システムを提供する。前記実体模型は、手術器具を用いて手術される患部の模型であり、患部の動作に伴って、前記実体模型を該患部と同期的に動作させる第一手段と、手術器具の動作に伴って、前記模型用器具を該手術器具と同期的に動作させる第二手段とを備えることができる。さらに、本発明は、ヒト、動物、有体物、あるいは計算結果より抽出した三次元データを、説明や操作に適するよう加工・分割した実体模型を備える手術支援システムを提供する。
【0017】
また、各々の分割模型あるいはその三次元データを与える事物に、それを操作するための器具あるいは位置を指し示すための器具を備えることもできる。また、三次元データの間で、互いの対応する操作するための器具あるいは位置を指し示すための器具が、三次元データにおいて対応する場所を操作するための機構を備えることもできる。さらには、三次元データ、分割した実体模型データ、器具、操作の履歴を記録する機能と、記録されたそれらのデータに基づき、後日、操作を再現する再生機能を備えることもできる。
【0018】
【発明の実施の形態】
本発明にかかる実体模型及びこれを用いた手術支援システムの実施の形態について説明する。なお、内視鏡下副鼻腔手術を例に説明するが、その他の手術にも適用可能である。
図1 に示すように、3次元詳細分割模型データを作成する。符号10は、術前に撮影した患者の医用画像 (CT など)を示す。符号11で示すように、CT値などを参考に、関心領域(患部周辺および手術経路周辺)を指定して取り出し、3次元の形状データとする(この場合、鼻腔部分)。また、手術の進行方向に合わせ、適当な厚みで上記3次元データを層状に切断し、おのおのの層のデータを作成する(この場合、前額断)。また、符号111〜118は、切断面群12により作成された各層を示す。
【0019】
図2に示すように、3次元詳細分割模型をラピッドプロトタイピング装置などにより作成する。符号111〜113は、前額断各層であり、各層111〜113の正面図を図2に示している。
【0020】
図3には、複数の方向の切断面の組みあわせ例を示す。符号13は、切断面群12と異なる方向の切断面群を示す。符号113’〜 118’及び131〜133は、二つの切断面群 12、13 で切断されてできる模型の各層を示す。
【0021】
図4は、図1に示す3次元詳細分割模型を、切断面群12の前方の層111から層112まで順に一層ずつ取り除いて行く様子を示す。内視鏡下鼻腔手術では、内視鏡ほかの手術器具を鼻の穴から差し入れ、奥に向かって手術を進めていくため、このような前額断で層状に模型を作製し、手術の進行状況に応じて前面から順に層を取り去ってゆくと、現在手術を行なっている周辺の内部構造が露出した形となり、患部の3次元構造が大変良く把握できる。
【0022】
図5は、機械的リンクによる手術支援システムの例を示す。符号50は患者の頭部、符号51は手術器具、符号52は模型用器具であり、手術器具あるいは模擬手術器具あるいは指示棒、符号53は術者(操作者)の手、符号54は患者の頭部の動きを3次元詳細分割模型に伝える機構(第一手段)、符号55は手術器具の動きを[模擬]手術器具(手術器具又は模擬手術器具を意味する)あるいは指示具52に伝える機構(第二手段)、符号52’は[模擬]手術器具に代えて用いる指示具(手術器具の方向を示すために利用できる)を示す。この場合、符号56に示すように光線あるいは細い指示棒のようなものを指示具として利用可能である。符号115〜118は、図1に示す3次元詳細分割模型の切断面群12の各層を示す。図1に示す各層111〜114は手術の進行に伴い、既に取り去られているため、図5には示されていない。
【0023】
図6は、図5に示す機械的リンクによる手術支援システムにおいて、[模擬]手術器具あるいは指示具を挿入しながら3次元詳細分割模型の各層を取り除く方法の例を示しており、具体的には、層112を取り除いた状態を示している。あらかじめ各層を2個以上に分割できるよう造形しておけばよい。図6には、層112が二つの分割層112−1、112−2に分割されたものを示している。
【0024】
図7は、マスター・スレーブ式による手術支援システムの例を示す。符号71は、手術器具の位置・方向などを検知するセンサ、符号72は患者の頭部の位置・方向などを検知するセンサ、符号73はセンサ 71,72からの情報を読み取り、スレーブ側を制御する制御装置、符号74は[模擬]手術器具あるいは指示具を動かす駆動装置(制御装置 73で制御する)、符号75は3次元詳細分割模型を動かす駆動装置(制御装置 73で制御する)を示す。符号75で示すものは、[模擬]手術器具あるいは指示具を動かす制御信号が、患者の頭部72と手術器具71の相対位置関係をもとに導出される場合は、省略可能である。センサ72と、制御装置73と、駆動装置75は、第一手段を構成しており、センサ71と、制御装置73と、駆動装置75は、第二手段を構成している。
【0025】
図8は、遠隔操作による手術支援システムの例を示す。符号80はネットワーク、符号81はスレーブ側制御装置を示す。制御装置73からの制御信号は、ネットワーク80を経由してスレーブ側制御装置81に伝えられ、駆動装置74,75を駆動する。駆動装置によっては、スレーブ側制御装置81を介することなく、直接ネットワーク80を経由した制御装置73からの制御信号により駆動できることもある。なお、この実施例の場合、ネットワーク80は、第一手段及び第二手段の構成要素の一つである。
【0026】
図9は、複数のスレーブ装置の遠隔操作による手術支援システムの例を示す。符号90は、マスター側装置一式、符号91、92は遠隔側装置一式を示す。装置91、92の各々が3次元詳細分割模型(93、93’)、[模擬]手術器具あるいは指示具(52、52’)、それらの駆動装置(74、74’、75、75’)、またそれらを制御する制御装置(81、81’)を備え(図8参照)、マスター側の制御装置73からの制御信号により患者と手術器具との相対位置関係を再現する。符号93、93’は分割模型を示す。同じ模型を異なる地点で参照する、同じ患者の異なる模型(骨と粘膜表面といった着目する組織別に抽出したもの、あるいは異なる分割方向で作成したものなど)を同時に参照する、同じ患者の異なる状態の模型(呼吸、心拍、血圧、投薬、あるいは姿勢などで患部の状態が変化する場合、その変化のいくつかの段階を異なる模型として作成したもの) を同時に参照する、という利用方法が考えられる。
【0027】
図10は、双方向利用による手術支援システムの例を示す。すなわち、この手術支援システムは、遠隔側91のユーザ100がネットワーク80を通じて自分がマスター側となり (太線囲い)、もとのマスター側90およびその他の遠隔側をスレーブ側として操作する例である。符号100は遠隔側91のユーザを示す。制御装置81を通じて、自身がマスター側となることができる。符号101は手術器具を動かす駆動装置を示す。この場合、位置・方向などを検知するセンサを兼ねている。符号102は患者の頭部を動かす駆動装置を示す。この場合、位置・方向などを検知するセンサを兼ねている。
【0028】
図11は、模型利用のみによる手術支援システムを示す。図12は、図10の双方向利用による手術支援システムに記録手段を設けて、操作等を記録・再生することが可能な手術支援システムの例を示す。ローカルあるいはネットワーク上の記憶領域に形状データ及び操作履歴データを記録しておき、後日、この記録されたデータに基づいて操作を再現することが可能である。符号73−1、81−1、81’−1はローカルな記憶領域(記録手段)、符号120はネットワーク上の記憶領域(記録手段)を示す。
【0029】
次に、上記実施の形態の動作について説明する。
1.内視鏡下副鼻腔手術では、手術が鼻腔にそって進行するため、前額断による鼻腔部分の分割模型を作成するのが適当である。
(1)術前に撮影した患者の医用画像(例えば・線CT画像)(図1において符号10で示す)から、必要な部位を選択する。ここでは、顔表面と鼻腔・副鼻腔を抽出し、3次元の形状データ(三次元データ)を作成する(図1において符号11で示す)。
(2)上記の患部の形状データを、必要であれば倍率を変化させて、拡大・縮小する。手術の進行方向にあわせ、前額断で、倍率が等倍であれば約1cm幅で分割したデータ(三次元分割データ)を作成する(図1において符号111〜118で示す)。分割数は0以上であり(分割数0とは、分割無しであることを示す)、分割方向は複数を組み合わせることも可能である(図3において符号12,13で示す)。目的によっては、層状ではなく、不定形な分割でもよい。
(3)ラピッドプロトタイピング装置などにより、上記三次元分割データに基づいて3次元詳細分割模型(分割模型)を作成する(図2において符号111〜113に分割模型の一部を示す)。形状を3次元的に再現するだけでなく、軟部組織は素材を変えるなどして材質を表現することもできる。また、色づけもできる。各分割面のCT値の分布の画像を作成して分割模型に転写してもよい。
(4)また、本模型に手術時に重要となる点を直接マーク付けすることも可能である。筆記具様のもので描く、シールなどのマーカを貼りつける、あるいは模型に発光素子を埋め込むなどが考えられる。また、最近ユビキタスコンピューティング分野で開発されている、小さいIDタグを埋め込んでもよい。
【0030】
2.術中の三次元地図としての利用(位置表示・ナビゲーション)
(1)基本的には、術中に、本分割模型を患者のかたわらに置き、術野の位置(主に深さ方向)の変化に合わせて模型の層(ブロック)を取り除いて行く。これにより、手術の進行方向の患部構造を的確に把握することができる(図4)。
(2)手術器具の位置を何らかの方法で取得し、本分割模型上にそれと対応する位置・方向などを3次元的に呈示し、現在位置の把握と進行方向の確認を行う。これにより、手術ナビゲーションを行なうことができる。分割模型が拡大・縮小などあらかじめ変形されている場合は、それに応じた操作が反映される。
【0031】
(2−1)もっとも簡便には、機械式のリンクで(患者頭部 −− 分割模型)および(手術器具 −− 手術器具のモデル、あるいは光線などによる指示具) を結び、患者頭部(手術器具を用いて手術される患部)が動けば分割模型がそれを反映して同様に動くように(すなわち、患部の動作に伴って、実体模型を患部と同期的に動作するように)、また手術器具を動かすと対応する手術器具、あるいはそのモデルがそれにつれて動き、分割模型上に手術器具の位置・方向が反映されるように(すなわち、手術器具の動作に伴って、模型用器具を手術器具と同期的に動作するように)しておく(図5)。分割模型の各層は、手術器具、あるいはそのモデルが分割模型内部に入ったままでも各層を取り去れるように、あらかじめ分割して作成しておくのが適当である(図6)。これにより、現在の術野位置および周辺臓器・これからの進行方向の把握が常に正確に可能となる。逆に、模型側での操作を実際の患者側に反映させて操作を行うこともできる。分割模型を実物より大きく作っておき、リンク機構で動作の大きさを拡大・縮小するよう設定しておけば、模型側での操作を患者側では縮小して行なえるため、細かい作業が楽にできるようになる。
【0032】
(2−1)(破壊を伴う操作)手術では、組織の破壊を伴う操作が多い。例えば手術器具としてシェーバー(組織を巻き込み削り取るもの)を用いた場合は、分割模型の側にも同じ種類のシェーバーを装着して、術者(操作者)がシェーバーで組織を削開するにつれて、分割模型の対応する部分が削開されるようにして、形状の変化を模型側にも反映させる。
【0033】
(2−2)(マスター・スレーブ式)また、患者頭部および手術器具の位置・方向をセンサにて取得し、それに基づいて患者の分割模型および手術器具、ありはそのモデルまたは指示具を駆動して位置・方向を実時間で再現すれば、同様の効果を得ることができる(図7)。ここで、患者頭部と手術器具の相対位置関係を計算することで、患者の分割模型の駆動部分は省略して手術器具、あるいはそのモデルだけを駆動する形態も可能である。
【0034】
(2−3)(遠隔利用)上記マスター・スレーブ式では、マスター側(患者及び手術器具)からの情報をネットワーク経由で伝達することで、スレーブ側(患者分割模型と手術器具、あるいはそのモデル)を遠隔地に置くこと(図8)、また複数設置すること(図9)も可能である。これにより、複数の医師が同時に手術の進行状況を3次元的に把握することができ、遠隔地にいる熟練医あるいは専門医が適切な助言を与えることが可能となる。
【0035】
(2−3−1)(複数設置型の応用)上記遠隔利用方式でスレーブ側を複数設置する場合(図9)は、遠隔地にいる複数の観察者に見せる他、同じ患者の異なる模型(骨と粘膜表面といった着目する組織別など抽出条件あるいは方法の異なるもの、あるいは分割方法や倍率など加工条件の異なるものなど)を同時に参照する、同じ患者の異なる状態の模型(呼吸、心拍、血圧、投薬、あるいは姿勢などで患部の状態が変化する場合、その変化のいくつかの段階を異なる模型として作成したもの)を同時に参照する、という利用方法も考えられる。
【0036】
(2−4)(双方向利用)さらに、上記(2−2)、(2−3)の利用形態において、マスター側・スレーブ側双方の手術器具 (のモデルまたは指示具) のセンサ類および駆動系を装備し、随時マスター・スレーブを切り替えられる機構とすることにより、指導者(遠隔地にいても良い)がマスター側となることによって外部から手術の進行に直接関与することが可能となる(図10)。例えば、手術進行中に過った方向に手術器具が動いていることに気づいた指導者が、自分自身をマスター側に切り替え、自分の手元にある手術器具、あるいはそのモデルを動かすことで、実際の手術現場の手術器具をスレーブとして動かして、危険な動作を回避させたり正しい方向を指示することが可能となる。
【0037】
3.その他の三次元(ボリューム)データを用いた会議システムへの応用
本システムは、手術支援以外にも、手術計画立案支援、工業製品の断層画像や、流体力学や計算生物学など計算シミュレーションにより算出された、あらゆる三次元(ボリューム)データをもとにした会議システムとして応用可能である。たとえば、分子の電子分布状態や銀河の構造、宇宙の重力場分布データなどに関して、分割面を様々に設定して詳細分割模型を作成し、上記(2−2,3,4)の利用形態により、手術器具に代えて指示棒を用いれば、複雑な3次元構造について、遠隔であっても、誤解無く意思疎通を図ることが可能である。
【0038】
(3−1)(模型のみの構成)このような、複雑な3次元構造について、誤解無く意思疎通を図る場面では、マスター側、スレーブ側ともに、模型を用いる形態もあり得る(図11 )。
(3−1’)(模型と計算機によるデータ表示を組み合わせた構成)模型と計算機で表示されたデータとを組み合わせ、マスター・スレーブを随時切り替える方法もある。例えば、指示棒で示された実体模型上の点について、そこに関する情報を計算機上で表示することができる。これは、人体模型上の点を指し示してその解剖学的な情報を計算機上に呈示して学習する、また逆に計算機上で指示された解剖学的な点を段落識別番号〔0029〕で述べた実体模型に埋め込まれた発光素子の対応するものを光らせる、あるいはその点を実体模型上で正しく指し示すことができるかどうかを試験することもできる。また、流体力学など複雑なデータを表す実体模型上で指し示された点について、より詳細な情報を計算機上に表示することも可能である。ここで、実体模型上の位置を指し示す方法として、段落識別番号〔0029〕で述べたIDタグを用いれば、指示棒はIDタグの読み取り機を先端に取り付けた棒を用いればよい。
(3−2)(記録と時間差のある再生)上記(2−2)以降に記述して来たシステムでは、操作者が加えた操作の履歴を、3次元データと共に記録しておき、その記録を元に、分割模型と操作具作を再現(再生)することができる(図12)。これにより、下記のような教育方法が考えられる。
【0039】
図12の符号90において熟練者の実際の操作を記録し、符号91,92,…の模型側で再生して教育に利用する。ビデオテープではわからない3次元的な操作の学習に有効である。図12の符号91に被訓練者を、符号92に熟練した訓練者を配置、符号90(実際の対象物)はスレーブとする。まず、符号90は動作させずにおき、被訓練者が符号91でいくつかの操作を行なって履歴を記録する。訓練者はその操作履塵を見て、正しく安全であると判断される操作のみを符号90の実際の対象物に対して再生し、ここで初めて実際の操作が行われる。これを繰り返すことにより、実地訓練による訓練効果を低減させることなく、訓練による操作ミスのリスクが低減される。また、実際の手術場面などにおいても、模型で少しずつ操作を行ない、安全確認の後にスレーブ側である実際の対象物にその操作を再生する、という手術方法にも応用できる。
【0040】
【発明の効果】
本発明によれば、以下のような効果を奏することができる。
(1)個々の患者の3次元詳細分割模型と、手術器具またはそのモデルを用いた手術支援システムにより、二次元ディスプレイに表示される画像を見るだけという従来の手術支援システムに比べ3次元の分割模型を実際に「見る」「触る」ことにより3次元的な空間配置の理解が、また術具と患部の位置関係の理解が格段に向上し、手術の安全性が高まる。
(2)個々の患者の3次元詳細分割模型は、患者への説明・術計画立案にも利用可能で、術者の患部構造理解及び患者の手術への理解が深まる。
(3)拡大した分割模型を使えば、実際には微少な操作でも簡単に行なうことができる。
(4)本システムを利用して実際の患者の患部の三次元情報および熟練者の操作データが蓄積されることにより、内視鏡手術に必要な、身体の3次元的空間構造の把握を可能にする三次元人体模型教材を、安価に、多くのバリエーションで提供可能となり、教育レベル向上に資する。
(5)本システムは手術支援以外にも、工業製品の断層画像や、流体力学や計算生物学などにより算出される、あらゆる三次元(ボリューム)データに応用可能で、データの立体構造把握が不可欠な場面における遠隔意思疎通および教示を容易にする。また、実体模型と計算機上のデータ呈示という新しい組み合わせによる教育システムを構築できる。
【図面の簡単な説明】
【図1】図1は、3次元詳細分割模型データの図である。
【図2】図2は、各層の正面図である。
【図3】図3は、複数の方向の切断面の組みあわせ例を示す図である。
【図4】図4は、3次元詳細分割模型を、前方から順に一層ずつ取り除いて行く様子を示す図である。
【図5】図5は、機械的リンクによる手術支援システムの例を示す図である。
【図6】図6は、3次元詳細分割模型の各層を取り除く方法の例を示す図である。
【図7】図7は、マスター・スレーブ式の例を示す図である。
【図8】図8は、遠隔操作の例を示す図である。
【図9】図9は、複数のスレーブ側装置を遠隔操作する例を示す図である。
【図10】図10は、双方向利用の例を示す図である。
【図11】図11は、模型のみによる構成例を示す図である。
【図12】図12は、記録・再生可能な構成例を示す図である。
【符号の説明】
10 術前に撮影した患者の医用画像 (CT など)
11 抽出された関心領域の形状
12 切断面群
13 切断面群 12と異なる方向の切断面群
50 患者の頭部
51 手術器具
52 手術器具あるいは模擬手術器具あるいは指示棒
52’ [模擬]手術器具の変わりに用いる指示具
53 術者(操作者)
54 患者の頭部の動きを3次元詳細分割模型に伝える機構
55 手術器具の動きを[模擬]手術器具あるいは指示具に伝える機構
71 手術器具の位置・方向などを検知するセンサ
72 患者の頭部の位置・方向などを検知するセンサ
73 制御装置
73−1、81−1、81’−1 ローカルな記憶領域
74 駆動装置
75 駆動装置
80 ネットワーク
81 スレーブ側制御装置
90 マスター側装置一式
91,92 遠隔側装置一式
93、93’ 分割模型
100 ユーザ
101 駆動装置
102 駆動装置
120 ネットワーク上の記憶領域
111〜118、131〜133 三次元詳細分割模型
Claims (4)
- ヒト、動物、有体物、あるいは計算結果より抽出された三次元データを複数に切断して三次元分割データを作成し、該三次元分割データに基づいて作成された各分割模型で構成されていることを特徴とする実体模型。
- 請求項1に記載の実体模型において、
前記分割模型は、前記三次元分割データに基づいてラピッドプロトタイピング装置によって作成されていることを特徴とする実体模型。 - 請求項1又は2に記載の実体模型と、
前記実体模型を操作する模型用器具とを備えていることを特徴とする手術支援システム。 - 請求項3に記載の手術支援システムにおいて、
前記実体模型は、手術器具を用いて手術される患部の模型であり、
患部の動作に伴って、前記実体模型を該患部と同期的に動作させる第一手段と、
手術器具の動作に伴って、前記模型用器具を該手術器具と同期的に動作させる第二手段とを備えていることを特徴とする手術支援システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003151894A JP2004348091A (ja) | 2003-03-26 | 2003-05-29 | 実体模型及びこれを用いた手術支援システム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003085690 | 2003-03-26 | ||
JP2003151894A JP2004348091A (ja) | 2003-03-26 | 2003-05-29 | 実体模型及びこれを用いた手術支援システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004348091A true JP2004348091A (ja) | 2004-12-09 |
Family
ID=33543017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003151894A Pending JP2004348091A (ja) | 2003-03-26 | 2003-05-29 | 実体模型及びこれを用いた手術支援システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004348091A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4465437B1 (ja) * | 2009-10-23 | 2010-05-19 | 国立大学法人 岡山大学 | 挿管訓練用モデル |
JP4465436B1 (ja) * | 2009-06-03 | 2010-05-19 | 国立大学法人 岡山大学 | 挿管訓練用モデル及び挿管訓練用モデルの製造方法 |
JP2018146987A (ja) * | 2018-06-21 | 2018-09-20 | 社会福祉法人兵庫県社会福祉事業団 | 医療用立体モデルおよびその製造方法 |
CN109381260A (zh) * | 2017-08-08 | 2019-02-26 | 韦伯斯特生物官能(以色列)有限公司 | 使用虚拟装置和物理3d模型以显现医疗装置在患者器官中的导航 |
JP2020502552A (ja) * | 2016-11-10 | 2020-01-23 | シンク サージカル, インコーポレイテッド | 遠隔指導ステーション |
JP2020106783A (ja) * | 2018-10-30 | 2020-07-09 | Cyberdyne株式会社 | 情報伝達システム |
CN111723837A (zh) * | 2019-03-20 | 2020-09-29 | 斯瑞克欧洲控股I公司 | 用于计算机辅助手术导航的处理患者特定图像数据的技术 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0511689A (ja) * | 1991-06-29 | 1993-01-22 | Sekisui Chem Co Ltd | 内臓または器官類の立体モデル製造方法 |
JPH05303327A (ja) * | 1992-04-27 | 1993-11-16 | Morita Mfg Co Ltd | 医療用切削シミュレーション装置 |
JPH10232601A (ja) * | 1997-02-18 | 1998-09-02 | Univ Waseda | 顎運動装置 |
JPH11197159A (ja) * | 1998-01-13 | 1999-07-27 | Hitachi Ltd | 手術支援システム |
JP2001005377A (ja) * | 1999-06-23 | 2001-01-12 | Agency Of Ind Science & Technol | 人体模型 |
JP2001195567A (ja) * | 1999-10-25 | 2001-07-19 | Cybermed Inc | 人体内部の形状物に似ている実物モデルを形成する方法及び装置 |
JP2002040928A (ja) * | 2000-07-28 | 2002-02-08 | Connet:Kk | 医療用立体モデル及びその製造方法 |
-
2003
- 2003-05-29 JP JP2003151894A patent/JP2004348091A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0511689A (ja) * | 1991-06-29 | 1993-01-22 | Sekisui Chem Co Ltd | 内臓または器官類の立体モデル製造方法 |
JPH05303327A (ja) * | 1992-04-27 | 1993-11-16 | Morita Mfg Co Ltd | 医療用切削シミュレーション装置 |
JPH10232601A (ja) * | 1997-02-18 | 1998-09-02 | Univ Waseda | 顎運動装置 |
JPH11197159A (ja) * | 1998-01-13 | 1999-07-27 | Hitachi Ltd | 手術支援システム |
JP2001005377A (ja) * | 1999-06-23 | 2001-01-12 | Agency Of Ind Science & Technol | 人体模型 |
JP2001195567A (ja) * | 1999-10-25 | 2001-07-19 | Cybermed Inc | 人体内部の形状物に似ている実物モデルを形成する方法及び装置 |
JP2002040928A (ja) * | 2000-07-28 | 2002-02-08 | Connet:Kk | 医療用立体モデル及びその製造方法 |
Non-Patent Citations (1)
Title |
---|
MODEL−40 医学看護教育用総合カタログ −シミュレータ・モデル・VTR− 2002−2003, JPN6008014278, 1 November 2001 (2001-11-01), JP, pages 103 - 115, ISSN: 0001009845 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4465436B1 (ja) * | 2009-06-03 | 2010-05-19 | 国立大学法人 岡山大学 | 挿管訓練用モデル及び挿管訓練用モデルの製造方法 |
JP2010281937A (ja) * | 2009-06-03 | 2010-12-16 | Okayama Univ | 挿管訓練用モデル及び挿管訓練用モデルの製造方法 |
JP4465437B1 (ja) * | 2009-10-23 | 2010-05-19 | 国立大学法人 岡山大学 | 挿管訓練用モデル |
JP2010282170A (ja) * | 2009-10-23 | 2010-12-16 | Okayama Univ | 挿管訓練用モデル |
JP2020502552A (ja) * | 2016-11-10 | 2020-01-23 | シンク サージカル, インコーポレイテッド | 遠隔指導ステーション |
JP2019048044A (ja) * | 2017-08-08 | 2019-03-28 | バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. | ダミーデバイス及び物理3dモデルを使用して患者の器官内の医療デバイスのナビゲーションを可視化すること |
CN109381260A (zh) * | 2017-08-08 | 2019-02-26 | 韦伯斯特生物官能(以色列)有限公司 | 使用虚拟装置和物理3d模型以显现医疗装置在患者器官中的导航 |
JP7214390B2 (ja) | 2017-08-08 | 2023-01-30 | バイオセンス・ウエブスター・(イスラエル)・リミテッド | ダミーデバイス及び物理3dモデルを使用して患者の器官内の医療デバイスのナビゲーションを可視化すること |
JP2018146987A (ja) * | 2018-06-21 | 2018-09-20 | 社会福祉法人兵庫県社会福祉事業団 | 医療用立体モデルおよびその製造方法 |
JP2020106783A (ja) * | 2018-10-30 | 2020-07-09 | Cyberdyne株式会社 | 情報伝達システム |
JP7281924B2 (ja) | 2018-10-30 | 2023-05-26 | Cyberdyne株式会社 | 情報伝達システム |
CN111723837A (zh) * | 2019-03-20 | 2020-09-29 | 斯瑞克欧洲控股I公司 | 用于计算机辅助手术导航的处理患者特定图像数据的技术 |
CN111723837B (zh) * | 2019-03-20 | 2024-03-12 | 斯瑞克欧洲控股I公司 | 用于计算机辅助手术导航的处理具体患者的图像数据的技术 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11580882B2 (en) | Virtual reality training, simulation, and collaboration in a robotic surgical system | |
US11944401B2 (en) | Emulation of robotic arms and control thereof in a virtual reality environment | |
US20220101745A1 (en) | Virtual reality system for simulating a robotic surgical environment | |
Moline | Virtual reality for health care: a survey | |
US9626805B2 (en) | Interactive mixed reality system and uses thereof | |
Cohen et al. | Virtual reality simulation: basic concepts and use in endoscopic neurosurgery training | |
Chan et al. | Virtual reality simulation in neurosurgery: technologies and evolution | |
Coles et al. | The role of haptics in medical training simulators: A survey of the state of the art | |
Meier et al. | Virtual reality: surgical application—challenge for the new millennium | |
JP2020106844A (ja) | 医療処置トレーニングのためのシミュレータシステム | |
Coleman et al. | Virtual reality and laparoscopic surgery | |
Kapoor et al. | Haptics–Touchfeedback technology widening the horizon of medicine | |
JP2018534011A (ja) | 拡張現実感手術ナビゲーション | |
Mathew et al. | Role of immersive (XR) technologies in improving healthcare competencies: a review | |
CN115315729A (zh) | 用于促进远程呈现或交互的方法和系统 | |
JP4129527B2 (ja) | 仮想手術シミュレーションシステム | |
Dumay et al. | Endoscopic surgery simulation in a virtual environment | |
Müller et al. | The virtual reality arthroscopy training simulator | |
Riener et al. | VR for medical training | |
CN210378506U (zh) | 基于虚拟现实的眼眶手术训练系统 | |
Benmahdjoub et al. | Evaluation of AR visualization approaches for catheter insertion into the ventricle cavity | |
JP2004348091A (ja) | 実体模型及びこれを用いた手術支援システム | |
Coles | Investigating augmented reality visio-haptic techniques for medical training | |
Radetzky et al. | ROBO-SIM: a simulator for minimally invasive neurosurgery using an active manipulator | |
Salb et al. | Intraoperative presentation of surgical planning and simulation results using a stereoscopic see-through head-mounted display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20041124 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080326 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080729 |