JP2004344491A - Virtual surgery simulation system - Google Patents

Virtual surgery simulation system Download PDF

Info

Publication number
JP2004344491A
JP2004344491A JP2003146463A JP2003146463A JP2004344491A JP 2004344491 A JP2004344491 A JP 2004344491A JP 2003146463 A JP2003146463 A JP 2003146463A JP 2003146463 A JP2003146463 A JP 2003146463A JP 2004344491 A JP2004344491 A JP 2004344491A
Authority
JP
Japan
Prior art keywords
virtual
human body
model data
surgical tool
simulation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003146463A
Other languages
Japanese (ja)
Other versions
JP4129527B2 (en
Inventor
Hideo Fujimoto
英雄 藤本
Akito Sano
明人 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2003146463A priority Critical patent/JP4129527B2/en
Publication of JP2004344491A publication Critical patent/JP2004344491A/en
Application granted granted Critical
Publication of JP4129527B2 publication Critical patent/JP4129527B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a virtual surgery simulation system simulating the work of a surgery at the same sight line as the actual surgery without using models. <P>SOLUTION: When a user stands in front of a three-dimensional image display device 10, puts on a liquid crystal shutter type spectacles 40, and moves a grip 51, this virtual surgery simulation system 1 allows a main PC 20 to display a parallax error image three-dimensionally displayed when looking through the liquid crystal shutter type spectacles 40 on the three-dimensional image display device 10 based on a human model data and surgical appliance model data. Then, the main PC three-dimensionally displays a virtual surgical appliance and the virtual human body overlapped on the grip 51 in front of the user and, when the virtual surgical appliance approaches to the virtual body, the main PC 20 calculates the operation that the virtual surgical appliance is elastically deformed, cuts, or penetrates relative to the virtual human body, displays the virtual human body formed by updating the human model data, and produces a repulsive force at the grip 51 responding to the operation applied to the virtual human body by an inner force sense device 50. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、手術の技能訓練や、手術の事前検討等のために、実際の人体を用いずに手術の作業を行えるようにするための仮想手術シミュレーションシステムに関する。
【0002】
【従来の技術】
従来、学生による手術の技能訓練などにて模擬的に手術を行う方法として、人体を模擬した模擬物(例えば、動物)に対して手術を行う方法が知られている。
しかし、動物愛護の観点から、動物を模擬物として用いることが困難になってきており、人工の模擬物を用いる場合でも、模擬物を繰り返し用いることが難しく費用がかかるなどの問題がある。
【0003】
この問題を改善するために、患者を模擬した仮想人体、及び、手術具を模擬した仮想手術具の3次元画像を描画してモニタ画面に表示し、使用者によるモニタ画面の前部に設けられた模擬手術具の操作に対して、連動して仮想手術具を表示し、仮想手術具による作用を仮想人体に対して反映して表示する仮想手術シミュレーションシステムにより、模擬物を用いず仮想空間内の仮想人体に対して手術を行う方法が知られている(特許文献1参照)。
【0004】
【特許文献1】
特許第3198130号公報
【0005】
【発明が解決しようとする課題】
しかし、従来の仮想手術シミュレーションシステムでは、モニタ画面に表示される画像の中の仮想人体に対して手術が行われ、使用者の視線が実際の手術時と異なるため、実際の手術の際の感覚をつかみ難いという問題が考えれられる。
【0006】
また、実際の手術では、患部の状態を各方向から自分で覗き込んでその状態を確認する場合があるが、このような場合に対して、従来の仮想手術シミュレーションシステムでは、ジョイスティックによりモニタ画面の表示範囲を切り換えての確認になるなど、実際の手術作業とのギャップがある。
【0007】
本発明は、こうした問題点に鑑みなされたものであり、実際の手術と同様の視線で、模擬物を使わずに手術の作業を模擬して行うことができる仮想手術シミュレーションシステムを提供することを目的とする。
【0008】
【課題を解決するための手段】
かかる目的を達成するためになされた請求項1記載の仮想手術シミュレーションシステムにおいては、所定の仮想空間内に立体映像を表示するための映像表示手段と、仮想空間に患者の一部又は全部を模擬した仮想人体を表示するための人体モデルデータ、及び、仮想空間に手術具を模擬した仮想手術具を表示するための手術具モデルデータが、仮想空間内に表示すべき位置の位置情報を含めて記憶された記憶手段とを備える。
【0009】
そして、位置検出手段が、仮想空間内における使用者の手又は指の位置を検出し、位置情報更新手段が、位置検出手段にて検出される使用者の手又は指の位置に、仮想手術具が変位されるように、仮想手術具の位置情報を更新し、この位置情報更新手段にて位置情報を更新された仮想手術具が仮想人体に当接する位置関係になったと判断される場合には、モデルデータ更新手段が、この位置関係で、実際の手術具を実際の人体に当接させた場合の人体における作用を演算して、この演算結果を人体モデルデータに反映する。
【0010】
そして更に、視線検出手段が、使用者の視線位置及び視線方向を検出し、映像制御手段が、最新の人体モデルデータ及び手術具モデルデータにより、仮想人体及び仮想手術具を、視線検出手段にて検出された視線位置及び視線方向から観察される仮想空間内の立体映像として、映像表示手段により表示する。
【0011】
この結果、本発明の仮想手術シミュレーションシステムによれば、使用者の視線位置及び視線方向に応じて仮想人体及び仮想手術具が立体映像で表示され、使用者は、手又は指の位置を移動することにより仮想手術具を動かし、仮想手術具を仮想人体へ当接させて、実際に手術しているかのように仮想人体を変化させることができる。
【0012】
このため、手術の技能訓練や、術前の手術方法の検討などのために、使用者は、模擬物を使わずに、実際の手術と同様の視線で、実在する患者に対するのと同様に手又は指を動かして模擬した手術を行える。また、人体モデルデータを元の状態に戻すだけで、容易に手術の模擬を繰り返して行うことができる。
【0013】
尚、位置検出手段で位置を検出する箇所は手又は指であり、検出する箇所が手の場合、この位置を手術具を握った手の位置、つまり仮想手術具の位置として位置情報更新手段で手術具の位置を更新する。そして、位置検出手段にて検出する箇所が指の位置の場合は、指を手術具とするものでも良いし、検出されたいくつかの指の位置により、仮想手術具の例えば鉗子などを、その指で操作されたように位置情報更新手段で仮想手術具の位置を更新するものでも良い。
【0014】
また、仮想手術具は、2つ以上あっても良い。この場合、各々同じ種類の手術具を模擬したものでも良いし、別々の種類の手術具を模擬したものであっても良い。そして、2つ以上の仮想手術具は、複数人での利用が可能である。
また、位置検出手段で検出する位置は、仮想手術具の数に応じて複数あっても良いし、1つの仮想手術具に対して複数箇所検出するものであっても良い。
【0015】
次に、本発明の仮想手術シミュレーションシステムは、請求項2に記載のように、位置検出手段にて位置を検出される使用者の手又は指に、反発力を与えるための体感手段を備え、モデルデータ更新手段は、実際の人体における作用を演算する際に、実際の手術具に対する反発力を演算し、この演算結果を基に体感手段を介して使用者の手又は指に反発力を与えるように構成しても良い。
【0016】
つまり、このように構成すると、立体映像で模擬される視覚に加えて、体感手段により、仮想手術具により仮想人体に及ぼす作用に応じて使用者の手又は指に生ずる反発力で、触覚が模擬されて、より現実感がある仮想手術シミュレーションシステムとすることができる。
【0017】
尚、より現実感を出すためには、仮想手術具による作用に応じた音響を発生するようにして、視覚、触覚に加え、聴覚を模擬するとより良い。
ところで、手術で用いられる手術具は、メス類、鉗子類、縫合針類、及び、人の指など種々ある。これらの手術具による人体に対する作用は、手術具の人体と当接する部分の形状によってその作用は異なってくる。
【0018】
このような、手術具による人体への種々の作用を模擬するには、請求項1又は請求項2に記載の仮想手術シミュレーションシステムを、請求項3に記載のように、モデルデータ更新手段が、仮想人体に当接する箇所の仮想手術具の形状の種類毎に、実際の人体における作用を演算するための複数の演算パターンを備え、実際の人体における作用を演算する際には、仮想人体に対する仮想手術具の当接箇所の形状に応じた複数の演算パターンを選択し、実際の人体における作用を該演算パターンで演算するように構成すると良い。
【0019】
つまり、このように構成すると、仮想手術具の種類や、仮想手術具の使い方などに応じて、仮想人体に対する作用を変えることができ、仮想手術具による仮想人体への作用を、より実際に近くなるように模擬することができる。
尚、手術における手術具による人体に対する作用には、鉗子や指などにより人体の一部を押したり、引っ張ったりして弾性変形する作用や、メスなどによる開腹、切除などの切断する作用や、縫合や吻合する際の縫合針などによる刺通する作用などがある。そして、モデルデータ更新手段は、これらの作用を模擬するための演算パターンを備えると良い。
【0020】
また、請求項1〜請求項3に記載の仮想手術シミュレーションシステムにおいて、立体表示手段の具体的な構成は種々考えられるが、この立体表示手段としては、例えば請求項4に記載のように、視差画像表示装置で、仮想人体及び仮想手術具を手術台に相当する台上面に、視差が設けられた2つの視差画像として表示し、使用者の眼前に装着される立体視眼鏡で視差画像を立体視させるように構成すると良い。
【0021】
つまり、立体表示手段をこのように構成にすると、使用者が装着するのは立体視眼鏡だけとすることができ、立体映像を表示するための他の構成であるヘッドマウントディスプレイのように、映像を表示するための大がかりな装置を頭部に装着しなくても良く、より自然な状態で手術作業を体感することができる。
【0022】
また、請求項1〜請求項4に記載の仮想手術シミュレーションシステムの記憶手段には、請求項5に記載のように、実在する患者から取得したデータより生成した人体モデルデータを記憶するようにしても良い。
つまり、このようにすると、仮想手術シミュレーションシステムを用いた手術作業により、手術の方法に対する問題の有無を事前に確認し、執刀する医者の手術の作業に対する熟練度を上げて、人体モデルデータを生成した患者を手術する際の成功率を上げることができる。
【0023】
また、請求項5に記載の仮想手術シミュレーションシステムを、現実空間に実在する患者に対して手術具を作用させるために、請求項6のように、外部出力手段で、位置検出手段で検出した使用者の手又は指の位置を、所定の外部へ出力するように構成すると良い。
【0024】
つまり、このように構成すると、外部出力手段の出力先を、出力された位置により手術具を制御して動かすロボットなどの機器とすれば、人体モデルデータを実在する患者から取得したものとし、仮想手術シミュレーションシステムでの医師による手術作業と、ロボットによる手術作業をシンクロさせて、遠隔地にいる患者に対して手術を行うことができる。つまり、仮想手術シミュレーションシステムを、いわゆるテレサージェリーシステムの入力装置とすることができる。
【0025】
また、仮想手術シミュレーションシステムを、ミクロな世界で手術するマイクロサージェリーシステムの入力装置として、外部出力手段の出力先を、ミクロな医療ロボットとし、表示する仮想人体の患部を拡大表示することにより、使用者がミクロな世界に入り込んで手術しているようにすることもできる。
【0026】
【発明の実施の形態】
以下に本発明の実施例を図面と共に説明する。
本実施例の仮想手術シミュレーションシステム1の全体構成を図1に表す。
仮想手術シミュレーションシステム1は、図1に示すように、立体映像表示装置10と、メインパーソナルコンピュータ(以降、メインPCと呼ぶ)20と、映像処理用ワークステーション(以降、映像処理用WSと呼ぶ)30と、液晶シャッタ式メガネ40と、位置センサ45と、力覚デバイス50とで構成され、技能訓練などを目的として、患者を模擬した仮想人体を立体映像で所定の空間に表示し、使用者が、この仮想人体に対して仮想的に手術を行うためのシステムである。
【0027】
尚、立体映像表示装置10においては、半球ドーム形状で半透明の球面ディスプレイ12が球面を上にして、箱形のコンソール11上部の開放された部分に装着され、映像を投影表示する2台の液晶プロジェクタ13,14が、コンソール11内の球面ディスプレイ12の下方に、それぞれ球面ディスプレイ12の内面に映像を重ねて投影するように投光部を向けて装着され、液晶プロジェクタ13,14の投光部の前部にそれぞれメカニカルシャッタ15,16が配置されている。
【0028】
また、メカニカルシャッタ15,16は、メインPC20から同期信号を受けて、これに合わせて所定の時間毎(例えば、1/60秒毎)に交互にシャッタを開閉する。このように、液晶プロジェクタ13,14が投光する映像は、所定時間毎に交互に球面ディスプレイ12の内面に投影され、球面ディスプレイ12の外面に表示される。
【0029】
また、液晶シャッタ式メガネ40は、左右のレンズ部がそれぞれ電気信号により開閉する液晶シャッタとなっており、メカニカルシャッタ15,16と同じタイミングの同期信号が、メインPC20から赤外線などにより入力されて、これに合わせて左右交互に液晶シャッタを開く。よって、液晶シャッタ式メガネ40と、メカニカルシャッタ15,16との開閉タイミングは同期する。
【0030】
このように、使用者は、液晶シャッタ式メガネ40を通して、球面ディスプレイ12に表示される映像を見ると、使用者の両目の内の一方(例えば、右目)は、液晶プロジェクタ13からの映像しか見えず、もう一方の目(例えば、左目)は、液晶プロジェクタ14からの映像しか見えないようになっている。
【0031】
このため、立体映像を表示するために視差を持った2つの画像のうち、右目用の画像を液晶プロジェクタ13、左目用の画像を液晶プロジェクタ14に入力し、立体映像表示装置10の球面ディスプレイ12に表示すると、使用者は、右目用の画像を右目で見て、左目用の画像を左目で見るため、結果的に球面ディスプレイ12に表示される映像が立体映像として見えることになる(いわゆる立体視)。
【0032】
尚、立体視させる場合には、視線に対して直交方向に画像を表示することが理想的であり、その点、本立体映像表示装置10は、映像を投影する球面ディスプレイ12が半球形状であり、コンソール11上面のどの方向から見られても直交方向の画像を表示することができ、立体視させることができる。
【0033】
また、位置センサ45は、直交コイルを内蔵し、液晶シャッタ式メガネ40に装着されている。そして、立体映像表示装置10の脇に、直交コイルで構成され、交流電流を与えると磁気を発生するトランスミッタ46が置かれていて、位置センサ45は、トランスミッタ46による磁界中に置かれると誘起電流を生じ、これを検出回路47で時分割に測定して、X、Y、Zの3次元座標値(つまり、視線位置)、及び、ピッチ、ヨー、ロールのオイラー角(つまり、視線方向)の信号をメインPC20へ出力する。
【0034】
また、力覚デバイス50は、使用者に握られるグリップ51を、X,Y,Z軸方向に移動することができるように多関節の支持部材52で支持した構成で、コンソール11の上面に配置される。そして、グリップ51先端の3次元座標位置を、各関節に設けられたエンコーダなどにより検出し、メインPC20に検出した位置信号を出力する。また、力覚デバイス50の各関節には、DCモータが設けられていて、メインPC20からのDCモータに対する駆動電流を受けて、グリップ51に対して3自由度方向の反発力を発生する。
【0035】
また、メインPC20は、CPU、ROM、RAM、外部記憶装置、I/Oなどからなる周知のパーソナルコンピュータで構成され、力覚デバイス50及び位置センサ45からの信号を入力して、メカニカルシャッタ15,16及び液晶シャッタ40への同期信号と、力覚デバイス50への駆動電流と、仮想人体及び仮想手術具を立体表示するように視差を設けて生成した2つの視差画像の映像処理用WS30へのアナログRGB信号とを出力する。尚、立体映像表示装置10にて表示する画像が、各入力に応じてリアルタイムに変化して表示されるように、メインPC20には、処理能力が十分高速なものが用いられている。
【0036】
また、映像処理用WS30は、周知のワークステーションで構成され、入力される2つの視差画像が、方形のディスプレイへ表示するための画像であるため、球面形状の球面ディスプレイ12内面に投影したときに歪んだ映像にならないように、ビデオ信号に対して映像の補正処理を行い、立体映像表示装置10の液晶プロジェクタ13,14に出力する。
【0037】
尚、映像処理用WS30には、ビデオ信号変換器31を備え、メインPC20から送られてくるアナログRGB信号による視差画像は、ビデオ信号変換器31を通され、ビデオ信号として入力される。
ところで、立体画像表示装置10により映像が立体的に表示される範囲を仮想空間とし、仮想空間内の所定の場所に表示される仮想人体の状態を表す人体モデルデータと、同じく仮想空間内の所定の場所に表示される仮想手術具の状態を表す手術具モデルデータとが、メインPC20の外部記憶装置に記憶された基本データを基に、それぞれの位置情報を含めてRAM上に記憶されている。
【0038】
尚、人体モデルデータの基本データは、人体の一部を撮影したCT(コンピュータ断層撮影装置)や、MRI(核磁気共鳴映像法)などの医療用画像から、輪郭線抽出を行い、デローニー三角形や、ボロノイ図を利用して輪郭線間の面生成を行い生成された、人体内部の情報も含む3次元形状データに、各組織毎の弾性係数など、人体の特性に関する各種情報を含んでいる。
【0039】
また、手術具モデルデータは、メスや、縫合針などの手術具の形状をデータ化した複数の3次元形状データで構成され、各仮想手術具の各部分は、その形状が種別分類され、メスなど刃物状の形状部分が種別「B」、縫合針など、針状の形状部分が種別「C」、それ以外が種別「A」として分類された形状特性のデータを有している。
【0040】
続いて、メインPC20での処理手順と共に、仮想手術シミュレーションシステム1の動作を図2に示すフローチャートにより説明する。
まず、S100(Sはステップを表す)にて、力覚デバイス50からグリップ51の位置信号を取得し、この位置信号の位置を仮想手術具の表示位置として(つまり、グリップ51に重なって仮想手術具が表示されるように)手術具モデルデータの位置情報を変更する。
【0041】
次に、S110にて、手術具モデルデータ及び人体モデルデータから、立体映像表示装置10にて仮想手術具を表示する領域が、仮想人体を表示する領域に接するか判別する。これらの領域が接する場合はS120へ移行し、接しない場合はS190へ移行する。
【0042】
次に、S120にて、表示される仮想手術具の仮想人体に接する部分の形状の種別を判別する。そして、形状の種別が「A」の場合S130へ移行し、形状の種別が刃物状の「B」の場合S150へ移行し、形状の種別が針状の「C」の場合S170へ移行する。
【0043】
S130では、仮想手術具が接する仮想人体を弾性体として、仮想手術具により変形される仮想人体の状態を有限要素方とニュートンの運動方程式とを組み合わせたモデルで計算を行い、この計算による変形量を反映した仮想人体となるように人体モデルデータを変更する。そして、S140にて、仮想手術具に対する反発力としてS130で計算の変形量に対する弾性力を求めて、S190へ移行する。
【0044】
S150では、仮想手術具の刃物状形状が接する仮想人体部分を、位相変形手法として頂点の再配置法により、ある程度滑らかな切断面にするように人体モデルデータを変更し、S160にて、仮想手術具に対する反発力としてS150で計算した切断の際の反発力を求めて、S190へ移行する。
【0045】
S170では、仮想手術具の針状形状が重なる仮想人体部分を、頂点の再配置と増殖を行って、刺通穴を生成するように人体モデルデータを変更し、S180にて、仮想手術具に対する締め付け力に起因するS180での刺通穴の刺通抵抗を求めて、S190へ移行する。
【0046】
次に、S190にて、位置センサ45からの視線位置及び視線方向の信号を取得する。
次に、S200にて、人体モデルデータ及び手術具モデルデータを基に、それぞれの位置情報の位置に表示する仮想人体及び仮想手術具を、S190で取得した視線位置及び視線方向から見た場合の3次元画像に視差を持たせた、2枚の視差画像を生成する。
【0047】
次に、S210にて、S200で生成した画像を、映像処理用WS30へ出力して立体映像表示装置10に表示し、S140又はS160又はS180で計算された反発力に基づく駆動電流を力覚デバイス50へ出力し、S100へ戻る。尚、コンソール11の上方の所定の位置に、他の仮想手術具を並べて表示し、使用者によりグリップ51をこの仮想手術具の位置に重ねられると、その仮想手術具をグリップ51に重ねて表示している仮想手術具と入れ替えて表示する。
【0048】
これにより、使用者が、立体映像表示装置10の前に立ち、液晶シャッタ式メガネ40を掛け、グリップ51を動かすと、仮想手術シミュレーションシステム1は、仮想人体及び仮想手術具を使用者の眼前に立体表示し、この仮想手術具をグリップ51に重ね、仮想手術具が仮想人体に対して接すると、仮想手術具の仮想人体と接する部分の形状に応じて弾性変形、又は、切断、又は、刺通したように仮想人体を変形して表示し、グリップ51に反発力を発生する。例えば、仮想手術具が仮想メスの場合、グリップ51が移動され、仮想メスの刃物形状部分が仮想人体に接すると、仮想メスが接した部分で切断した形状に仮想人体を変形して表示し、力覚デバイス50によりメスで切断しているような反発力を発生させて、使用者に対して仮想メスが仮想人体を切り込んでいるように感じさせる。
【0049】
以上のように、仮想手術シミュレーションシステム1によれば、使用者は、実際の手術を行う際と同様に、立体映像で表示される仮想人体及び仮想手術具を使用者の視線に応じて視認でき、仮想手術具を操作するようにグリップ51を移動して、仮想人体に対して仮想手術具を作用させることができる。また、仮想手術具により仮想人体に対して作用を及ぼしたときの反発力がグリップ51に発生するため、使用者は、触覚的にも仮想人体が実在しているように感じることができる。
【0050】
このように、仮想手術シミュレーション1は、使用者の技能訓練などに対して、実際の手術と同様の視線で、模擬物を使わずに手術の模擬作業を行わせることができる。
また、手術具による仮想人体への作用として、弾性変形、切断、刺通の演算パターンのいづれかが、手術具の形状に応じて選択されて演算されるため、種々の仮想手術具による種々の操作に応じた仮想人体への作用を模擬できる。
【0051】
また、人体モデルデータを、実際に手術を行う患者からのデータとして、当該仮想手術シミュレーションシステム1で手術の作業を手術前に行うようにすれば、手術を行う際の問題の有無を確認し、手術の作業に対する熟練度を上げ、手術の成功率を上げることができる。
【0052】
[本発明との対応関係]
本実施例の映像処理用WS30及び立体映像表示装置10が本発明の視差画像表示装置に相当し、液晶シャッタ式メガネ40が立体視眼鏡に相当し、メインPC20のRAMが記憶手段に相当し、力覚デバイス50が位置検出手段及び体感手段に相当し、位置センサ45が視線検出手段に相当し、メインPC20におけるS100での処理が位置情報更新手段に相当し、メインPC20におけるS110〜S180での処理がモデルデータ更新手段に相当し、メインPC20におけるS190〜S210での処理が映像制御手段に相当する。
【0053】
[変形例]
以上、本発明の実施形態について説明したが、本発明は上記の具体的な実施形態に限定されず、このほかにも様々な形態で実施することができる。
例えば、本実施例では、コンソール11上に仮想人体の立体映像を表示する構成であるが、そのほかの方法で立体映像が表示されるものであっても良く、例えば、ヘッドマウントディスプレイにより、眼前に仮想空間を3次元画像で立体表示するものであっても良い。但し、本実施例のコンソール11上に映像表示する方法では、ヘッドマウントディスプレイのように、映像を表示する大がかりな装置を頭部に装着しなくても良く、より自然な状態での手術作業を体感することができる。
【0054】
また、本実施例では、力覚デバイス50が1つだけ装着され、グリップ51の状態で1つの仮想手術具が操作される構成としたが、力覚デバイス50を複数設けたものであっても良く、このような構成にすると、複数の仮想手術具を両手もしくは複数人で行う手術を模擬できるようにしたり、複数の力覚デバイス50を指先で操作できるようにして、鉗子などの仮想手術具を指の動きで操作したり、指による手術作業を行えるようにするなど、手術のいろいろな状態を模擬するようにできる。
【0055】
また、力覚デバイス50からの位置信号を、外部出力器90により外部へ出力するように構成しても良く、このようにすれば、人体モデルデータを実際の患者のものとし、外部出力器90による位置信号の出力先を、位置信号に応じて実際の手術具を動かすロボットとして、本仮想手術シミュレーションシステム1で手術の作業を行うことにより、ロボットを操作し遠隔地にいる患者に対して手術を行うことができる。このような、テレサージェリーシステムの入力装置とすることができる。
【0056】
また、ミクロな世界にて手術するマイクロサージェリーシステムの入力装置として、力覚デバイス50からの位置信号を、外部出力器90によりミクロな医療ロボットに入力し、表示する仮想人体で、患部を拡大表示することにより、実際にミクロな世界に入り込んで手術をするようにもできる。
【図面の簡単な説明】
【図1】本実施例の仮想手術シミュレーションシステム1の全体構成を表す図である。
【図2】本実施例のメインPCの処理手順のフローチャート図である。
【符号の説明】
1…仮想手術シミュレーションシステム、10…立体映像表示装置、11…コンソール、12…球面ディスプレイ、13,14…液晶プロジェクタ、15,16…メカニカルシャッタ、20…メインパーソナルコンピュータ、30…映像処理用ワークステーション、40…液晶シャッタ式メガネ、45…位置センサ、46…トランスミッタ、50…力覚デバイス、90…外部出力器。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a virtual surgery simulation system for performing a surgical operation without using an actual human body, for training of surgical skills, preliminary examination of the surgery, and the like.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as a method of simulating surgery by training students in surgical skills, a method of performing surgery on a simulated object (for example, an animal) simulating a human body is known.
However, from the viewpoint of animal welfare, it has become difficult to use animals as imitations. Even when artificial imitations are used, there is a problem that it is difficult to use the imitations repeatedly and it is costly.
[0003]
In order to improve this problem, a virtual human body simulating a patient and a three-dimensional image of a virtual surgical tool simulating a surgical tool are drawn and displayed on a monitor screen, and are provided in front of the monitor screen by a user. The virtual surgical tool is displayed in conjunction with the operation of the simulated surgical tool, and the effect of the virtual surgical tool is reflected and displayed on the virtual human body. A method of performing an operation on a virtual human body is known (see Patent Document 1).
[0004]
[Patent Document 1]
Japanese Patent No. 3198130
[Problems to be solved by the invention]
However, in the conventional virtual surgery simulation system, surgery is performed on the virtual human body in the image displayed on the monitor screen, and the user's line of sight is different from the time of the actual operation. The problem that is difficult to grasp is considered.
[0006]
Also, in actual surgery, the state of the affected part may be checked by looking into the state of the affected part from each direction, but in such a case, a conventional virtual surgery simulation system uses a joystick to display the monitor screen. There is a gap with the actual operation such as confirmation by switching the display range.
[0007]
The present invention has been made in view of these problems, and provides a virtual surgery simulation system capable of simulating a surgical operation without using a simulated object with a line of sight similar to an actual operation. Aim.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the virtual surgery simulation system according to claim 1 has an image display means for displaying a stereoscopic image in a predetermined virtual space, and simulates a part or all of a patient in the virtual space. Human body model data for displaying a virtual human body, and surgical tool model data for displaying a virtual surgical tool simulating a surgical tool in a virtual space, including position information of a position to be displayed in the virtual space. Storage means for storing.
[0009]
Then, the position detecting means detects the position of the user's hand or finger in the virtual space, and the position information updating means sets the virtual surgical instrument at the position of the user's hand or finger detected by the position detecting means. Is updated, the position information of the virtual surgical tool is updated, and when it is determined that the virtual surgical tool, the position information of which has been updated by the position information updating unit, has a positional relationship in contact with the virtual human body, The model data updating means calculates the action on the human body when the actual surgical tool is brought into contact with the actual human body in this positional relationship, and reflects the calculation result on the human body model data.
[0010]
Further, the line-of-sight detection unit detects the line-of-sight position and the line-of-sight direction of the user, and the image control unit detects the virtual human body and the virtual surgical tool with the latest human body model data and surgical tool model data using the line-of-sight detection means. The image is displayed by the image display means as a stereoscopic image in the virtual space observed from the detected line-of-sight position and line-of-sight direction.
[0011]
As a result, according to the virtual surgery simulation system of the present invention, the virtual human body and the virtual surgical instrument are displayed in a stereoscopic image according to the user's gaze position and gaze direction, and the user moves the position of the hand or finger. Thus, the virtual surgical tool can be moved, the virtual surgical tool can be brought into contact with the virtual human body, and the virtual human body can be changed as if actually performing a surgical operation.
[0012]
For this reason, the user should use the same gaze as the actual operation, without using a simulated object, in the same way as for an actual patient, for training in surgical skills and studying preoperative surgical methods. Alternatively, a simulated operation can be performed by moving a finger. In addition, only by returning the human body model data to the original state, the simulation of the operation can be easily repeated.
[0013]
The position where the position is detected by the position detecting means is a hand or a finger. When the detected position is a hand, the position is determined by the position information updating means as the position of the hand holding the surgical tool, that is, the position of the virtual surgical tool. Update the position of the surgical tool. If the position detected by the position detection means is the position of a finger, the finger may be used as a surgical tool, or a virtual surgical tool such as a forceps may be used depending on the detected positions of several fingers. The position of the virtual surgical instrument may be updated by the position information updating means as if operated by a finger.
[0014]
Further, there may be two or more virtual surgical tools. In this case, surgical instruments of the same type may be simulated, or surgical instruments of different types may be simulated. Then, two or more virtual surgical instruments can be used by a plurality of persons.
Further, the position detected by the position detecting means may be plural depending on the number of virtual surgical tools, or may be one that detects a plurality of positions for one virtual surgical tool.
[0015]
Next, the virtual surgery simulation system of the present invention includes a bodily sensation unit for giving a repulsive force to a user's hand or finger whose position is detected by the position detection unit, as described in claim 2, The model data updating means calculates the repulsive force against the actual surgical instrument when calculating the action on the actual human body, and gives the repulsive force to the user's hand or finger via the bodily sensation means based on the calculation result. You may comprise so that it may be.
[0016]
In other words, with this configuration, in addition to the sight simulated by the stereoscopic image, the tactile sensation is simulated by the bodily sensation means by the repulsive force generated on the user's hand or finger by the action on the virtual human body by the virtual surgical instrument. Thus, a virtual surgery simulation system having a more realistic feeling can be provided.
[0017]
In order to obtain a more realistic feeling, it is better to generate sound in accordance with the action of the virtual surgical instrument to simulate hearing as well as sight and touch.
By the way, there are various surgical tools used for surgery, such as scalpels, forceps, suture needles, and human fingers. The effect of these surgical tools on the human body depends on the shape of the portion of the surgical tool that contacts the human body.
[0018]
In order to simulate such various actions on the human body by the surgical tool, the virtual surgery simulation system according to claim 1 or 2, and the model data updating means as described in claim 3, For each type of shape of the virtual surgical tool in contact with the virtual human body, a plurality of operation patterns for calculating the operation on the actual human body are provided. It is preferable to select a plurality of calculation patterns according to the shape of the abutment portion of the surgical tool and calculate the actual operation on the human body using the calculation pattern.
[0019]
In other words, with this configuration, it is possible to change the action on the virtual human body according to the type of the virtual surgical tool and how to use the virtual surgical tool, so that the action of the virtual surgical tool on the virtual human body is closer to the actual one. It can be simulated as follows.
The operation of the surgical tool on the human body during surgery includes the action of elastically deforming the human body by pushing or pulling a part of the human body with forceps or fingers, the action of cutting a stomach with a scalpel or the like, or the action of suturing. And a piercing action by a suture needle or the like at the time of anastomosis. The model data updating means may include an operation pattern for simulating these operations.
[0020]
Further, in the virtual surgery simulation system according to the first to third aspects, various specific configurations of the three-dimensional display means can be considered, and the three-dimensional display means is, for example, parallax as described in the fourth aspect. The image display device displays the virtual human body and the virtual surgical tool on the table top corresponding to the operating table as two parallax images provided with parallax, and stereoscopically displays the parallax image with stereoscopic glasses worn in front of the user's eyes. It is good to make it visible.
[0021]
In other words, when the stereoscopic display means is configured in this manner, the user can wear only stereoscopic glasses, and like a head-mounted display, which is another configuration for displaying a stereoscopic video, the user can wear the video. It is not necessary to attach a large-scale device for displaying the message to the head, and the surgical operation can be experienced in a more natural state.
[0022]
The storage means of the virtual surgery simulation system according to the first to fourth aspects stores human body model data generated from data obtained from a real patient, as described in the fifth aspect. Is also good.
In other words, in this way, by performing a surgical operation using the virtual surgery simulation system, it is possible to confirm in advance whether or not there is a problem with the surgical method, increase the skill of the operating doctor in the surgical operation, and generate human body model data. The success rate when operating on a patient who has failed.
[0023]
In addition, in order to make the virtual surgery simulation system according to claim 5 operate a surgical tool on a patient who exists in the real space, the virtual output simulation system is detected by the external output means and detected by the position detection means. It is preferable to output the position of the hand or finger of the person to a predetermined outside.
[0024]
In other words, with this configuration, if the output destination of the external output means is a device such as a robot that controls and moves a surgical tool based on the output position, it is assumed that human body model data is obtained from an existing patient, and virtual By synchronizing the operation performed by the doctor in the operation simulation system with the operation performed by the robot, the operation can be performed on a patient located in a remote place. That is, the virtual surgery simulation system can be used as an input device of a so-called telesurgery system.
[0025]
In addition, by using the virtual surgery simulation system as an input device of a microsurgery system that performs surgery in a micro world, the output destination of the external output means is a micro medical robot, and the diseased part of the virtual human body to be displayed is enlarged and displayed. It is also possible for the user to enter the microscopic world and operate.
[0026]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows the overall configuration of the virtual surgery simulation system 1 of the present embodiment.
As shown in FIG. 1, the virtual surgery simulation system 1 includes a stereoscopic video display device 10, a main personal computer (hereinafter, referred to as a main PC) 20, and a video processing workstation (hereinafter, referred to as a video processing WS). 30, a liquid crystal shutter-type glasses 40, a position sensor 45, and a haptic device 50. For the purpose of skill training, etc., a virtual human body simulating a patient is displayed in a predetermined space as a stereoscopic image by a user. Is a system for performing a virtual surgery on this virtual human body.
[0027]
In the three-dimensional image display device 10, a semi-transparent spherical display 12 having a hemispherical dome shape is mounted on an open portion above a box-shaped console 11 with the spherical surface facing upward, and two sets for projecting and displaying images are provided. The liquid crystal projectors 13 and 14 are mounted below the spherical display 12 in the console 11 with the light projecting portions facing each other so as to project an image on the inner surface of the spherical display 12. Mechanical shutters 15 and 16 are arranged at the front of the section, respectively.
[0028]
Further, the mechanical shutters 15 and 16 receive the synchronization signal from the main PC 20, and alternately open and close the shutter at predetermined time intervals (for example, every 1/60 second) in accordance with the synchronization signal. In this manner, the images projected by the liquid crystal projectors 13 and 14 are alternately projected on the inner surface of the spherical display 12 at predetermined time intervals and displayed on the outer surface of the spherical display 12.
[0029]
In addition, the liquid crystal shutter glasses 40 are liquid crystal shutters in which the left and right lens units are respectively opened and closed by electric signals, and a synchronization signal having the same timing as that of the mechanical shutters 15 and 16 is input from the main PC 20 by infrared rays or the like. In accordance with this, the liquid crystal shutter is opened alternately left and right. Therefore, the opening / closing timings of the liquid crystal shutter glasses 40 and the mechanical shutters 15 and 16 are synchronized.
[0030]
As described above, when the user views the image displayed on the spherical display 12 through the liquid crystal shutter glasses 40, one of the eyes (for example, the right eye) of the user's eyes only sees the image from the liquid crystal projector 13. Instead, the other eye (for example, the left eye) can see only the image from the liquid crystal projector 14.
[0031]
Therefore, of the two images having parallax for displaying a stereoscopic image, the image for the right eye is input to the liquid crystal projector 13 and the image for the left eye is input to the liquid crystal projector 14, and the spherical display 12 of the stereoscopic image display device 10 is input. , The user sees the image for the right eye with the right eye and the image for the left eye with the left eye, and as a result, the image displayed on the spherical display 12 appears as a stereoscopic image (so-called stereoscopic image). See).
[0032]
In the case of stereoscopic viewing, it is ideal that an image is displayed in a direction orthogonal to the line of sight. In that regard, in the stereoscopic video display device 10, the spherical display 12 that projects an image has a hemispherical shape. Thus, an image in the orthogonal direction can be displayed from any direction on the upper surface of the console 11, and the image can be stereoscopically viewed.
[0033]
The position sensor 45 has a built-in orthogonal coil and is mounted on the liquid crystal shutter type glasses 40. A transmitter 46, which is formed of a quadrature coil and generates magnetism when an alternating current is applied, is placed beside the three-dimensional image display device 10. When the transmitter 46 is placed in a magnetic field generated by the transmitter 46, an induced current is generated. Is detected by the detection circuit 47 in a time-division manner, and the three-dimensional coordinate values of X, Y, and Z (that is, the line-of-sight position) and the Euler angles of pitch, yaw, and roll (that is, the line-of-sight direction) are obtained. The signal is output to the main PC 20.
[0034]
The haptic device 50 has a configuration in which a grip 51 gripped by a user is supported by an articulated support member 52 so as to be able to move in the X, Y, and Z axis directions, and is disposed on the upper surface of the console 11. Is done. Then, the three-dimensional coordinate position of the tip of the grip 51 is detected by an encoder or the like provided at each joint, and the detected position signal is output to the main PC 20. Each joint of the force sensing device 50 is provided with a DC motor, and receives a driving current from the main PC 20 to the DC motor to generate a repulsive force in three degrees of freedom with respect to the grip 51.
[0035]
The main PC 20 is composed of a well-known personal computer including a CPU, a ROM, a RAM, an external storage device, an I / O, etc., and receives signals from the force sensor 50 and the position sensor 45 to input signals from the mechanical shutter 15, 16 and a synchronizing signal to the liquid crystal shutter 40, a driving current to the haptic device 50, and a WS for image processing of two parallax images generated by providing parallax so as to stereoscopically display a virtual human body and a virtual surgical instrument. And an analog RGB signal. The main PC 20 has a sufficiently high processing capacity so that the image displayed on the three-dimensional image display device 10 is changed and displayed in real time according to each input.
[0036]
In addition, the WS 30 for image processing is configured by a well-known workstation, and the two parallax images to be input are images to be displayed on a rectangular display. The video signal is subjected to video correction processing so as not to be distorted and output to the liquid crystal projectors 13 and 14 of the stereoscopic video display device 10.
[0037]
The video processing WS 30 includes a video signal converter 31, and a parallax image based on an analog RGB signal sent from the main PC 20 is passed through the video signal converter 31 and input as a video signal.
By the way, a range in which an image is stereoscopically displayed by the three-dimensional image display device 10 is defined as a virtual space, and human body model data representing a state of a virtual human body displayed at a predetermined location in the virtual space; And surgical instrument model data indicating the state of the virtual surgical instrument displayed at the location of the main PC 20, based on the basic data stored in the external storage device of the main PC 20, and including the respective positional information on the RAM. .
[0038]
The basic data of the human body model data is obtained by extracting a contour from a medical image such as CT (Computed Tomography Apparatus) or MRI (Nuclear Magnetic Resonance Imaging) of a part of the human body, and extracting the Delaunay triangle or the like. The three-dimensional shape data generated by generating a surface between contour lines using the Voronoi diagram and including information on the inside of the human body includes various types of information on the characteristics of the human body such as the elastic coefficient of each tissue.
[0039]
The surgical tool model data is composed of a plurality of three-dimensional shape data obtained by converting the shape of a surgical tool, such as a scalpel or a suture needle, into each virtual surgical tool. The blade-shaped portion has data of the shape characteristics of the type "B", the needle-shaped portion such as a suturing needle has the shape characteristics of the type "C", and the others have the shape characteristics data of the type "A".
[0040]
Next, the operation of the virtual surgery simulation system 1 will be described with reference to the flowchart shown in FIG.
First, in S100 (S represents a step), a position signal of the grip 51 is acquired from the force sensor device 50, and the position of the position signal is set as a display position of the virtual surgical instrument (that is, the virtual operation tool is superimposed on the grip 51). The position information of the surgical tool model data is changed (so that the tool is displayed).
[0041]
Next, in S110, it is determined based on the surgical tool model data and the human body model data whether the area where the virtual surgical tool is displayed on the stereoscopic video display device 10 is in contact with the area where the virtual human body is displayed. If these areas are in contact, the process proceeds to S120; otherwise, the process proceeds to S190.
[0042]
Next, in S120, the type of the shape of the portion of the displayed virtual surgical tool that is in contact with the virtual human body is determined. When the type of shape is "A", the process proceeds to S130, when the type of shape is a blade-like "B", the process proceeds to S150, and when the type of shape is a needle-like "C", the process proceeds to S170.
[0043]
In S130, the state of the virtual human body deformed by the virtual surgical tool is calculated using a model combining the finite element method and Newton's equation of motion, with the virtual human body in contact with the virtual surgical tool as an elastic body. The human body model data is changed so that the virtual human body reflects the above. Then, in S140, an elastic force with respect to the calculated deformation amount is obtained in S130 as a repulsive force for the virtual surgical instrument, and the process proceeds to S190.
[0044]
In S150, the human body model data is changed so that the virtual human body part in contact with the blade-like shape of the virtual surgical tool is cut into a somewhat smooth cut surface by a vertex rearrangement method as a phase deformation technique. The rebound force at the time of cutting calculated in S150 is determined as the repulsion force for the tool, and the process proceeds to S190.
[0045]
In S170, the human body model data is changed so as to generate a puncture hole by rearranging and multiplying the vertices of the virtual human body part where the needle-shaped shape of the virtual surgical tool overlaps. The process proceeds to S190 in which the penetration resistance of the penetration hole in S180 due to the tightening force is determined.
[0046]
Next, in S190, a signal of the line-of-sight position and the line-of-sight direction from the position sensor 45 is acquired.
Next, in S200, based on the human body model data and the surgical tool model data, the virtual human body and the virtual surgical tool to be displayed at the respective positions of the position information are viewed from the line-of-sight position and the line-of-sight direction acquired in S190. Two parallax images in which a three-dimensional image has parallax are generated.
[0047]
Next, in S210, the image generated in S200 is output to the video processing WS 30 and displayed on the stereoscopic video display device 10, and the drive current based on the repulsive force calculated in S140 or S160 or S180 is applied to the haptic device. 50, and the process returns to S100. In addition, another virtual surgical tool is displayed side by side at a predetermined position above the console 11, and when the user can place the grip 51 on the position of the virtual surgical tool, the virtual surgical tool is displayed on the grip 51. The displayed virtual surgical tool is replaced.
[0048]
Thereby, when the user stands in front of the three-dimensional image display device 10, puts on the liquid crystal shutter glasses 40, and moves the grip 51, the virtual surgery simulation system 1 places the virtual human body and the virtual surgical tool in front of the user. The virtual surgical tool is displayed in a three-dimensional manner, and the virtual surgical tool is superimposed on the grip 51. When the virtual surgical tool contacts the virtual human body, the virtual surgical tool is elastically deformed, cut, or stabbed in accordance with the shape of the portion of the virtual surgical tool that contacts the virtual human body. The virtual human body is deformed and displayed as if passed, and a repulsive force is generated in the grip 51. For example, when the virtual surgical instrument is a virtual scalpel, when the grip 51 is moved and the blade-shaped portion of the virtual scalpel comes into contact with the virtual human body, the virtual human body is deformed and displayed in a shape cut at the portion where the virtual scalpel comes into contact, The force sensor device 50 generates a repulsive force as if it were cut with a scalpel, and makes the user feel that the virtual scalpel is cutting a virtual human body.
[0049]
As described above, according to the virtual surgery simulation system 1, the user can visually recognize the virtual human body and the virtual surgical tool displayed in a stereoscopic image according to the user's line of sight, as in the case of performing an actual operation. By moving the grip 51 so as to operate the virtual surgical tool, the virtual surgical tool can act on the virtual human body. In addition, since a repulsive force is generated in the grip 51 when the virtual surgical instrument acts on the virtual human body, the user can feel tactilely as if the virtual human body actually exists.
[0050]
As described above, the virtual surgery simulation 1 allows a user to perform a simulated operation for a skill training or the like without using a simulated object with a line of sight similar to that of an actual operation.
In addition, as an operation on the virtual human body by the surgical tool, any one of the operation patterns of elastic deformation, cutting, and piercing is selected and calculated according to the shape of the surgical tool, so that various operations by various virtual surgical tools are performed. Can simulate the effect on the virtual human body in accordance with.
[0051]
In addition, if the human body model data is used as data from a patient who actually performs a surgery, and the virtual surgery simulation system 1 performs the operation before the surgery, it is possible to confirm whether or not there is a problem in performing the surgery. The skill level of the operation can be increased, and the success rate of the operation can be increased.
[0052]
[Correspondence with the present invention]
The WS 30 for image processing and the stereoscopic image display device 10 of the present embodiment correspond to the parallax image display device of the present invention, the liquid crystal shutter glasses 40 correspond to stereoscopic glasses, the RAM of the main PC 20 corresponds to storage means, The haptic device 50 corresponds to a position detecting unit and a bodily sensation unit, the position sensor 45 corresponds to a line-of-sight detecting unit, the processing in S100 in the main PC 20 corresponds to a position information updating unit, and the processing in S110 to S180 in the main PC 20. The processing corresponds to the model data updating means, and the processing in S190 to S210 in the main PC 20 corresponds to the image control means.
[0053]
[Modification]
As described above, the embodiments of the present invention have been described. However, the present invention is not limited to the above specific embodiments, and can be implemented in various other modes.
For example, in the present embodiment, a configuration is used in which a stereoscopic image of a virtual human body is displayed on the console 11, but a stereoscopic image may be displayed by another method. The virtual space may be three-dimensionally displayed with a three-dimensional image. However, in the method of displaying an image on the console 11 of the present embodiment, a large-scale device for displaying an image, such as a head-mounted display, does not need to be mounted on the head, so that the operation work can be performed in a more natural state. You can experience it.
[0054]
In this embodiment, only one haptic device 50 is mounted, and one virtual surgical instrument is operated in the state of the grip 51. However, even if a plurality of haptic devices 50 are provided. With such a configuration, it is possible to simulate an operation performed by a plurality of virtual surgical tools with both hands or a plurality of persons, or to operate a plurality of force-sensing devices 50 with a fingertip, thereby providing a virtual surgical tool such as forceps. It is possible to simulate various states of surgery, for example, by operating with a finger or performing a surgical operation with a finger.
[0055]
Further, the position signal from the haptic device 50 may be configured to be output to the outside by the external output device 90. In this case, the human body model data is set to the actual patient, and the external output device 90 The virtual surgery simulation system 1 performs a surgical operation by using the output destination of the position signal by the robot as a robot that moves an actual surgical tool in accordance with the position signal, thereby operating the robot to operate a remote patient. It can be performed. Such an input device of a telesurgery system can be used.
[0056]
In addition, as an input device of a microsurgery system operating in a micro world, a position signal from a haptic device 50 is input to a micro medical robot by an external output device 90, and the affected part is enlarged by a virtual human body to be displayed. By displaying, it is possible to actually enter the microscopic world and perform an operation.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an overall configuration of a virtual surgery simulation system 1 according to the present embodiment.
FIG. 2 is a flowchart of a processing procedure of a main PC according to the embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Virtual surgery simulation system, 10 ... Stereoscopic image display device, 11 ... Console, 12 ... Spherical display, 13, 14 ... Liquid crystal projector, 15, 16 ... Mechanical shutter, 20 ... Main personal computer, 30 ... Image processing workstation , 40: liquid crystal shutter glasses, 45: position sensor, 46: transmitter, 50: force sensor, 90: external output device.

Claims (6)

所定の仮想空間内に立体映像を表示するための映像表示手段と、
前記仮想空間に患者の一部又は全部を模擬した仮想人体を表示するための人体モデルデータ、及び、前記仮想空間に手術具を模擬した仮想手術具を表示するための手術具モデルデータが、前記仮想空間内に表示すべき位置の位置情報を含めて記憶された記憶手段と、
前記仮想空間内における使用者の手又は指の位置を検出する位置検出手段と、
前記位置検出手段にて検出される使用者の手又は指の位置に、前記仮想手術具が変位されるように、前記仮想手術具の位置情報を更新する位置情報更新手段と、
前記位置情報更新手段にて位置情報を更新された前記仮想手術具が、前記仮想人体に当接する位置関係になったと判断される場合に、該位置関係で、実際の手術具を実際の人体に当接させた場合の該人体における作用を演算して、該演算結果を前記人体モデルデータに反映するモデルデータ更新手段と、
使用者の視線位置及び視線方向を検出する視線検出手段と、
最新の前記人体モデルデータ及び前記手術具モデルデータにより、前記仮想人体及び前記仮想手術具を、前記視線検出手段にて検出された視線位置及び視線方向から観察される前記仮想空間内の立体映像として、前記映像表示手段により表示する映像制御手段と、
を備えることを特徴とする仮想手術シミュレーションシステム。
Image display means for displaying a stereoscopic image in a predetermined virtual space,
Human body model data for displaying a virtual human body simulating a part or all of a patient in the virtual space, and surgical tool model data for displaying a virtual surgical tool simulating a surgical tool in the virtual space, Storage means stored including position information of a position to be displayed in the virtual space;
Position detection means for detecting the position of the user's hand or finger in the virtual space,
Position information updating means for updating position information of the virtual surgical instrument, so that the virtual surgical instrument is displaced to the position of the user's hand or finger detected by the position detecting means,
When it is determined that the virtual surgical instrument whose position information has been updated by the position information updating unit has a positional relationship in contact with the virtual human body, the actual surgical tool is replaced with the actual human body by the positional relationship. A model data updating unit that calculates an action on the human body when the contact is performed, and reflects the calculation result on the human body model data;
Gaze detection means for detecting the gaze position and gaze direction of the user,
According to the latest human body model data and surgical instrument model data, the virtual human body and the virtual surgical instrument are used as a stereoscopic image in the virtual space observed from the line-of-sight position and the line-of-sight direction detected by the line-of-sight detecting means. Video control means for displaying by the video display means,
A virtual surgery simulation system comprising:
前記位置検出手段にて位置を検出される使用者の手又は指に、反発力を与えるための体感手段を備え、
前記モデルデータ更新手段は、前記実際の人体における作用を演算する際に、前記実際の手術具に対する反発力を演算し、該演算結果を基に前記体感手段を介して前記使用者の手又は指に反発力を与える、
ことを特徴とする請求項1に記載の仮想手術シミュレーションシステム。
The user's hand or finger whose position is detected by the position detecting means, a bodily sensation means for giving a repulsive force,
The model data updating means calculates a repulsive force on the actual surgical instrument when calculating the action on the actual human body, and based on the calculation result, the user's hand or finger through the bodily sensation means. Give repulsion to
The virtual surgery simulation system according to claim 1, wherein:
前記モデルデータ更新手段は、
前記仮想人体に当接する箇所の前記仮想手術具の形状の種類毎に、前記実際の人体における作用を演算するための複数の演算パターンを備え、
前記実際の人体における作用を演算する際には、前記仮想人体に対する前記仮想手術具の当接箇所の形状に応じた前記複数の演算パターンを選択し、前記実際の人体における作用を該演算パターンで演算する、
ことを特徴とする請求項1又は請求項2に記載の仮想手術シミュレーションシステム。
The model data updating means,
For each type of the shape of the virtual surgical instrument at a position in contact with the virtual human body, a plurality of operation patterns for calculating the effect on the actual human body,
When calculating the action on the actual human body, the plurality of calculation patterns according to the shape of the contact point of the virtual surgical instrument with the virtual human body are selected, and the action on the actual human body is calculated using the calculation pattern. Operate on,
The virtual surgery simulation system according to claim 1 or 2, wherein:
前記立体表示手段は、
前記仮想人体及び前記仮想手術具を、手術台に相当する台上面に、視差が設けられた2つの視差画像として表示する視差画像表示装置と、
使用者の眼前に装着され、前記視差画像を立体視させる立体視眼鏡と、
で構成されることを特徴とする請求項1〜請求項3にいずれか記載の仮想手術シミュレーションシステム。
The stereoscopic display means,
A parallax image display device that displays the virtual human body and the virtual surgical tool on a table top corresponding to an operating table as two parallax images provided with parallax;
Stereoscopic glasses that are worn in front of the user's eyes and allow the parallax image to be viewed stereoscopically,
The virtual surgery simulation system according to claim 1, wherein:
前記記憶手段には、
実在する患者から取得したデータより生成した人体モデルデータが記憶されることを特徴とする請求項1〜請求項4にいずれか記載の仮想手術シミュレーションシステム。
In the storage means,
The virtual surgery simulation system according to any one of claims 1 to 4, wherein human body model data generated from data obtained from an existing patient is stored.
現実空間に実在する患者に対して手術具を作用させるために、前記位置検出手段で検出した使用者の手又は指の位置を、所定の外部へ出力する外部出力手段を備えることを特徴とする請求項5に記載の仮想手術シミュレーションシステム。An external output unit for outputting the position of the user's hand or finger detected by the position detection unit to a predetermined outside in order to cause the surgical tool to act on a patient who exists in the real space. The virtual surgery simulation system according to claim 5.
JP2003146463A 2003-05-23 2003-05-23 Virtual surgery simulation system Expired - Lifetime JP4129527B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003146463A JP4129527B2 (en) 2003-05-23 2003-05-23 Virtual surgery simulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003146463A JP4129527B2 (en) 2003-05-23 2003-05-23 Virtual surgery simulation system

Publications (2)

Publication Number Publication Date
JP2004344491A true JP2004344491A (en) 2004-12-09
JP4129527B2 JP4129527B2 (en) 2008-08-06

Family

ID=33533312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003146463A Expired - Lifetime JP4129527B2 (en) 2003-05-23 2003-05-23 Virtual surgery simulation system

Country Status (1)

Country Link
JP (1) JP4129527B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006313178A (en) * 2005-05-06 2006-11-16 Kobe Steel Ltd Cell manipulation simulator, simulation method, and program
KR100721713B1 (en) 2005-08-25 2007-05-25 명지대학교 산학협력단 Immersive training system for live-line workers
JP2008080021A (en) * 2006-09-28 2008-04-10 Univ Waseda Simulation unit, control unit, and operation robot control system using them, and program for simulation unit
JP2008292534A (en) * 2007-05-22 2008-12-04 Mitsubishi Precision Co Ltd Method and device for simulating cutting motion in operation, method and device for determining contact in simulated operation, and database structure for simulating cutting motion in operation
WO2009094621A2 (en) * 2008-01-25 2009-07-30 University Of Florida Research Foundation, Inc. Devices and methods for implementing endoscopic surgical procedures and instruments within a virtual environment
JP2009233043A (en) * 2008-03-26 2009-10-15 Univ Waseda Puncture ablation planning support device and program thereof, and puncture ablation condition determining method
CN101996507A (en) * 2010-11-15 2011-03-30 罗伟 Method for constructing surgical virtual operation teaching and training system
CN105825752A (en) * 2016-04-22 2016-08-03 吉林大学 Force feedback device-based virtual corneal surgery training system
CN106228861A (en) * 2016-09-26 2016-12-14 新乡医学院三全学院 A kind of teaching simulation CT system
CN106448314A (en) * 2016-08-31 2017-02-22 南京意斯伽生态科技有限公司 Traditional Chinese medicinal acupuncture and moxibustion simulation training system based on virtual reality technology
JP2018029500A (en) * 2016-08-23 2018-03-01 憲隆 福永 Intracytoplasmic sperm injection training device
JP2020013136A (en) * 2019-08-14 2020-01-23 憲隆 福永 Intracytoplasmic sperm injection training device
KR20200083715A (en) * 2018-12-28 2020-07-09 (주)스코넥엔터테인먼트 Virtual reality simulation providing system
CN114387836A (en) * 2021-12-15 2022-04-22 上海交通大学医学院附属第九人民医院 Virtual surgery simulation method and device, electronic equipment and storage medium
WO2023035980A1 (en) * 2021-09-13 2023-03-16 上海微创医疗机器人(集团)股份有限公司 Storage medium, robotic system, and computer device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011001299A1 (en) * 2009-06-29 2011-01-06 Koninklijke Philips Electronics, N.V. Tumor ablation training system

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006313178A (en) * 2005-05-06 2006-11-16 Kobe Steel Ltd Cell manipulation simulator, simulation method, and program
JP4607656B2 (en) * 2005-05-06 2011-01-05 株式会社神戸製鋼所 Cell manipulation simulator, simulation method and program
KR100721713B1 (en) 2005-08-25 2007-05-25 명지대학교 산학협력단 Immersive training system for live-line workers
JP2008080021A (en) * 2006-09-28 2008-04-10 Univ Waseda Simulation unit, control unit, and operation robot control system using them, and program for simulation unit
JP4636618B2 (en) * 2006-09-28 2011-02-23 学校法人早稲田大学 Simulation device, surgical robot control system using the same, and program for simulation device
JP2008292534A (en) * 2007-05-22 2008-12-04 Mitsubishi Precision Co Ltd Method and device for simulating cutting motion in operation, method and device for determining contact in simulated operation, and database structure for simulating cutting motion in operation
WO2009094621A2 (en) * 2008-01-25 2009-07-30 University Of Florida Research Foundation, Inc. Devices and methods for implementing endoscopic surgical procedures and instruments within a virtual environment
WO2009094621A3 (en) * 2008-01-25 2009-10-29 University Of Florida Research Foundation, Inc. Devices and methods for implementing endoscopic surgical procedures and instruments within a virtual environment
JP2009233043A (en) * 2008-03-26 2009-10-15 Univ Waseda Puncture ablation planning support device and program thereof, and puncture ablation condition determining method
CN101996507A (en) * 2010-11-15 2011-03-30 罗伟 Method for constructing surgical virtual operation teaching and training system
CN105825752A (en) * 2016-04-22 2016-08-03 吉林大学 Force feedback device-based virtual corneal surgery training system
JP2018029500A (en) * 2016-08-23 2018-03-01 憲隆 福永 Intracytoplasmic sperm injection training device
CN106448314A (en) * 2016-08-31 2017-02-22 南京意斯伽生态科技有限公司 Traditional Chinese medicinal acupuncture and moxibustion simulation training system based on virtual reality technology
CN106228861A (en) * 2016-09-26 2016-12-14 新乡医学院三全学院 A kind of teaching simulation CT system
KR20200083715A (en) * 2018-12-28 2020-07-09 (주)스코넥엔터테인먼트 Virtual reality simulation providing system
KR102136471B1 (en) * 2018-12-28 2020-07-23 (주)스코넥엔터테인먼트 Total hip replacement(bipolar hemiarthroplasty) surgical virtual reality simulator using magnetic surgical tool
JP2020013136A (en) * 2019-08-14 2020-01-23 憲隆 福永 Intracytoplasmic sperm injection training device
WO2023035980A1 (en) * 2021-09-13 2023-03-16 上海微创医疗机器人(集团)股份有限公司 Storage medium, robotic system, and computer device
CN114387836A (en) * 2021-12-15 2022-04-22 上海交通大学医学院附属第九人民医院 Virtual surgery simulation method and device, electronic equipment and storage medium
CN114387836B (en) * 2021-12-15 2024-03-22 上海交通大学医学院附属第九人民医院 Virtual operation simulation method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP4129527B2 (en) 2008-08-06

Similar Documents

Publication Publication Date Title
JP7195385B2 (en) Simulator system for medical procedure training
US10610303B2 (en) Virtual reality laparoscopic tools
US20220192771A1 (en) Emulation of robotic arms and control thereof in a virtual reality environment
US6113395A (en) Selectable instruments with homing devices for haptic virtual reality medical simulation
EP1965699B1 (en) Medical robotic system providing three-dimensional telestration
Tendick et al. Sensing and manipulation problems in endoscopic surgery: experiment, analysis, and observation
JP4129527B2 (en) Virtual surgery simulation system
US20190005838A1 (en) Virtual reality communication protocol
US20090263775A1 (en) Systems and Methods for Surgical Simulation and Training
US20140071165A1 (en) Mixed reality simulation methods and systems
WO2008058039A1 (en) Devices and methods for utilizing mechanical surgical devices in a virtual environment
KR101447931B1 (en) Surgical robot system using augmented reality and control method thereof
JP5419100B2 (en) Sensory presentation system and sensory presentation device
CN109118834A (en) A kind of virtual tooth-implanting operation training system
JP7269946B2 (en) A system for simulating surgical procedures
KR100957470B1 (en) Surgical robot system using augmented reality and control method thereof
JPH11219100A (en) Medical simulator system
JP7201998B2 (en) surgical training device
JP2004348091A (en) Entity model and operation support system using the same
Wieben Virtual and augmented reality in medicine
KR20150007517A (en) Control method of surgical action using realistic visual information
US20230149085A1 (en) Surgical simulation device
WO2024006348A1 (en) Systems and methods for clinical procedure training using mixed environment technology
KR20220121419A (en) simulator and method for medical practice based on Haptic device
Shoval et al. Reconstructing haptic sensing in tele-robotics surgery by non-attentive visual method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Ref document number: 4129527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term