JP2020134710A - Surgical operation training device - Google Patents

Surgical operation training device Download PDF

Info

Publication number
JP2020134710A
JP2020134710A JP2019028064A JP2019028064A JP2020134710A JP 2020134710 A JP2020134710 A JP 2020134710A JP 2019028064 A JP2019028064 A JP 2019028064A JP 2019028064 A JP2019028064 A JP 2019028064A JP 2020134710 A JP2020134710 A JP 2020134710A
Authority
JP
Japan
Prior art keywords
probing
simulated body
practice
training device
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019028064A
Other languages
Japanese (ja)
Other versions
JP7201998B2 (en
Inventor
英由樹 安藤
Hideyuki Ando
英由樹 安藤
前田 太郎
Taro Maeda
太郎 前田
暉悦 森島
Akinobu Morishima
暉悦 森島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Priority to JP2019028064A priority Critical patent/JP7201998B2/en
Publication of JP2020134710A publication Critical patent/JP2020134710A/en
Application granted granted Critical
Publication of JP7201998B2 publication Critical patent/JP7201998B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)

Abstract

To achieve a more superior location grasping property with respect to a monitor depth direction.SOLUTION: A surgical operation training device 10 synthesizes and display operation training images shot by an endoscope camera on a monitor for a teaching material image, and operates training-purposed operation gadgets so as to overlap on a movement of images of the operation gadget in the teaching material image. The surgical operation training device 10 comprises: a probing-purpose encounter type force sensing presentation instrument 6 that has a simulation body 60 providing a dimple surface having an elastic layer 601 on a surface, and a motor 63 causing the simulation body 60 to move in a three-dimensional space; and control units (7 and 73). The control unit is configured to obtain a space coordinate position of a contact position with a biological surface of the probing in the teaching material image, and a position on the dimple surface of the simulation body 60 corresponding to angle information on the biological surface as a surface coordinate position; and cause the simulation body 60 to move before replaying an image of the probing so as to match the surface coordinate position to the space coordinate position.SELECTED DRAWING: Figure 5

Description

本発明は、内視鏡カメラを用いた体腔鏡手術の訓練を支援する手術トレーニング装置に関する。 The present invention relates to a surgical training device that supports training in endoscopic surgery using an endoscopic camera.

腹腔内に内視鏡カメラと鉗子等を挿入して行われる外科手術である腹腔鏡下手術は、開腹手術に比べ低侵襲であるため患者への負担が少なく、今日、多くの医療機関に採用され普及が進んでいる。しかし、鉗子の挿入孔(トロカー)が“てこ”の支点のように働くため独特な操作が必要であり、また、モニタを通じて腹腔内を見ながら手術を行うため、方向・スケールの変換(hand-eye coordination)への適応といった特有の技能が求められることから手術難度が高い。そのため医学生の訓練には熟練医が側に付き指導することが望まれているが、腹腔鏡下手術の指導力を持った熟練医が十分に存在していないのが現状である。腹腔鏡手術を執り行う手法については、ロボット支援手術による手法もあるが、現状では腹腔鏡手術よりも有意に優れた手法であるとはいえず、今後も多くの医療機関で主要な手術手法として採用されると考えられる。また、熟練医不足の問題解決に向けて、視野共有手法を用いた腹腔鏡手術トレーニングシステムが提案されている(例えば特許文献1,2)。 Laparoscopic surgery, which is a surgical operation performed by inserting an endoscopic camera and forceps into the abdominal cavity, is less invasive than open surgery and therefore less burdensome to patients, and is adopted by many medical institutions today. It has been popularized. However, since the forceps insertion hole (trocar) acts like a fulcrum of the "lever", a unique operation is required, and since the operation is performed while looking inside the abdominal cavity through the monitor, the direction and scale are changed (hand-). Surgery is difficult because it requires unique skills such as adaptation to eye coordination). Therefore, it is desired that a skilled doctor be on the side of the training of medical students, but there are not enough skilled doctors who have the ability to guide laparoscopic surgery. Robot-assisted surgery is also available as a method for performing laparoscopic surgery, but at present it is not significantly superior to laparoscopic surgery and will continue to be adopted as a major surgical method in many medical institutions. It is thought that it will be done. Further, a laparoscopic surgery training system using a visual field sharing method has been proposed for solving the problem of a shortage of skilled doctors (for example, Patent Documents 1 and 2).

視野共有手法を応用した追従型トレーニングシステムは、熟練者の動作と自身の動作とを共有視野内で重畳させることで、誤差のリアルタイムフィードバックを得ることができるため、常に自身の動作を熟練者の動作に重ね合わせることができる。そのため、通常の訓練手法の手順である「見る、覚える、実演する、修正する」という4ステップのうち、「覚える」ことを不要とし、さらに「見る、実演する、修正する」を同時に行うことができる。近年のバーチャルリアリティ技術の発展に伴い、医療分野におけるシミュレータとして視野共有手法を応用した腹腔鏡追従型トレーニングシステムが提案されている。 The follow-up training system that applies the field-of-view sharing method can obtain real-time feedback of errors by superimposing the movements of the expert and their own movements in the shared field of view, so that their movements are always performed by the expert. It can be superimposed on the movement. Therefore, out of the four steps of "seeing, remembering, demonstrating, and modifying", which are the procedures of the usual training method, it is not necessary to "remember", and "seeing, demonstrating, and modifying" can be performed at the same time. it can. With the development of virtual reality technology in recent years, a laparoscopic-following training system that applies a field-of-view sharing method has been proposed as a simulator in the medical field.

国際公開 W02015/097825International release W02015 / 097825 特開2016−148765JP 2016-148765

しかしながら、特許文献1,2に記載のトレーニング方法は、基本的な結紮・縫合スキルの習得に関わるものであり、奥行方向の追従性を含む、手術に必要なスキルを包括的に獲得するための方法、装置を提示したものではない。 However, the training methods described in Patent Documents 1 and 2 relate to the acquisition of basic ligation / suture skills, and are used to comprehensively acquire the skills necessary for surgery, including followability in the depth direction. It does not present a method or device.

また、前記した視野共有手法を採用する場合、教材として手術環境を再現することが望ましい反面、複雑な腹腔内を再現するのは容易ではない。さらに、腹腔鏡手術はモニタを見て行うため、奥行きの把握が難しく、実手術では臓器に触れる力触覚(probing:プロービング)が奥行きの情報を補っていると考えられる。すなわち、熟練者の実手術映像に練習者の鉗子を重畳することでスキルを効率的に学習する追体験型の腹腔鏡手術トレーニング装置では、モニタを通して術野を見ながら手術を行うため、モニタ上におけるモニタ面方向の追従性に比べ、モニタの奥行方向の追従性の精度が低いという課題がある。実際の手術では、モニタの奥行方向を視覚と触覚の両方を利用して獲得していると考えられることから、熟練者と同程度のスキルを獲得するためには、腹腔鏡追従型トレーニングシステムでも訓練者に腹腔内の空間を把握させて奥行きの情報を補って、実手術と同様に触覚による空間把握を学習させる必要がある。 Further, when the above-mentioned visual field sharing method is adopted, it is desirable to reproduce the surgical environment as a teaching material, but it is not easy to reproduce a complicated abdominal cavity. Furthermore, since laparoscopic surgery is performed by looking at the monitor, it is difficult to grasp the depth, and in actual surgery, it is thought that the force-tactile sensation (probing) that touches the organ supplements the depth information. In other words, in the experience-based laparoscopic surgery training device that efficiently learns skills by superimposing the practitioner's forceps on the actual surgery video of the expert, the surgery is performed while looking at the surgical field through the monitor, so it is on the monitor. There is a problem that the accuracy of the followability in the depth direction of the monitor is lower than the followability in the monitor surface direction. In actual surgery, it is thought that the depth direction of the monitor is acquired using both visual and tactile sensations, so in order to acquire the same level of skill as an expert, a laparoscopic-following training system can also be used. It is necessary for the trainee to grasp the space in the abdominal cavity, supplement the depth information, and learn the space grasp by the sense of touch as in the actual surgery.

触覚提示の方法としては、腹腔内と同一の模型を作成し再現する手法や、すべて仮想的な環境で再現するバーチャルリアリティシミュレータのような手法が存在する。しかし、腹腔内の模型を訓練に必要な個数だけ作成することは、費用の面でも、技術的にも困難である。バーチャルリアリティシミュレータも1台のサイズは大きく、費用も高額となるため、十分な台数を用意することは難しい。熟練医が不足しており、速やかな熟練医の養成が喫緊の課題であるため、訓練可能な装置は複数台必要となると考えられることから、全てを仮想環境で再現する手法を採用することは、コスト的な面から実現困難である。 As a method of tactile presentation, there are a method of creating and reproducing the same model as in the abdominal cavity, and a method such as a virtual reality simulator that reproduces all in a virtual environment. However, it is costly and technically difficult to make as many intraperitoneal models as necessary for training. Since the size of one virtual reality simulator is large and the cost is high, it is difficult to prepare a sufficient number of virtual reality simulators. Since there is a shortage of skilled doctors and prompt training of skilled doctors is an urgent issue, it is thought that multiple trainable devices will be required, so it is not possible to adopt a method that reproduces all in a virtual environment. , It is difficult to realize from the cost aspect.

本発明は、上記に鑑みてなされたもので、プロービングを遭遇型力触覚提示器で再現することで、モニタ奥行方向に対する高い位置把握性を可能にする手術トレーニング装置を提供するものである。 The present invention has been made in view of the above, and provides a surgical training device that enables high position grasping in the depth direction of a monitor by reproducing probing with an encounter-type force-tactile presenter.

本発明に係る手術トレーニング装置は、予め内視鏡カメラで撮影された、手術器具を用いて行われる生体への施術の教材映像に、練習用カメラで撮影中の練習映像をモニタ上で合成して表示し、前記教材映像中の手術器具の映像の動きに重なるように練習用の手術器具を操作する手術トレーニング装置において、表面に弾性層を有する凹面を備えた模擬体と、前記模擬体を3次元空間内で移動させる駆動部とを有する、プロービングのための遭遇型力触覚提示器と、制御部とを備えている。制御部は、前記教材映像中の前記プロービングによる生体面との接触位置に対応する3次元空間上の位置を空間座標位置とし、かつ前記接触位置における生体面の角度に対応する前記模擬体の凹面上の位置を表面座標位置とし、前記空間座標位置に前記表面座標位置を合わせるように前記模擬体を前記プロービングの映像の再生前に移動させる。 The surgical training device according to the present invention synthesizes a practice image being photographed by a practice camera on a monitor with a teaching material image of a living body performed by using a surgical instrument, which has been previously photographed by an endoscopic camera. In a surgical training device in which a surgical instrument for practice is operated so as to overlap with the movement of the image of the surgical instrument in the teaching material image, a simulated body having a concave surface having an elastic layer on the surface and the simulated body are displayed. It includes an encounter-type force-tactile presenter for probing, which has a drive unit for moving in a three-dimensional space, and a control unit. The control unit sets the position on the three-dimensional space corresponding to the contact position with the biological surface by the probing in the teaching material image as the spatial coordinate position, and the concave surface of the simulated body corresponding to the angle of the biological surface at the contact position. The upper position is set as the surface coordinate position, and the simulated body is moved before the reproduction of the probing image so as to match the surface coordinate position with the spatial coordinate position.

本発明によれば、空間3自由度の制御でありながら、ロール回転を除く空間5自由度の表現が可能となる。また、ロール回転は、点接触の場合、形状認識には何ら寄与しないため、空間における必要なすべての自由度が表現可能である。本提示手法によって、従来手法では考慮されなかった弾性を持つ物体との接触、空間3自由度の平行移動制御による空間5自由度表現が可能となり、バーチャルリアリティ環境における物体形状の錯覚を体験させることが可能となる。腹腔鏡追従型トレーニングにおいては、トレーニング中に実際には存在しない内臓壁に鉗子等の手術器具を通して触れていると錯覚する。さらに、内臓壁に触れた触覚が得られることで、熟練医と同様にモニタ奥行きの空間位置をより高い精度で把握し、熟練医のスキルを獲得できる。 According to the present invention, it is possible to express the space 5 degrees of freedom excluding the roll rotation while controlling the space 3 degrees of freedom. Further, since the roll rotation does not contribute to shape recognition in the case of point contact, all the necessary degrees of freedom in space can be expressed. This presentation method enables contact with an elastic object, which was not considered in the conventional method, and expression of space 5 degrees of freedom by translation control of space 3 degrees of freedom, allowing the illusion of object shape in a virtual reality environment to be experienced. Is possible. In laparoscopic-following training, it is an illusion that a surgical instrument such as forceps is touching a visceral wall that does not actually exist during training. Furthermore, by obtaining the tactile sensation of touching the internal organ wall, it is possible to grasp the spatial position of the monitor depth with higher accuracy and acquire the skill of the skilled doctor as well as the skilled doctor.

また、前記模擬体の凹面を所定の曲率を有する曲面とすることで、移動制御のみでプロービング時の生体との種々の接触角度が再現可能となる。 Further, by making the concave surface of the simulated body a curved surface having a predetermined curvature, various contact angles with the living body at the time of probing can be reproduced only by movement control.

また、前記模擬体の凹面を半楕円形状とすれば、周方向の全ての角度が実現可能となる。 Further, if the concave surface of the simulated body has a semi-elliptical shape, all angles in the circumferential direction can be realized.

また、前記駆動部としてパラレルリンク機構を採用することで、簡易でありながら操作性の高い機構が構成される。 Further, by adopting a parallel link mechanism as the drive unit, a simple yet highly operable mechanism is configured.

また、前記駆動部は、プロービング期間中、前記模擬体を静止させるように制動を駆けることで、プロービング時の不用意な移動が抑止される。 Further, the driving unit is braked so as to keep the simulated body stationary during the probing period, so that careless movement during probing is suppressed.

また、前記駆動部は、プロービング期間終了後、前記模擬体を3次元空間内で前記手術器具から離れた方向の所定の退避位置に移動させる。この構成によれば、プロービング期間以外での手術器具の操作中に、手術器具が不用意に模擬体に接触するというような不都合が阻止される。 Further, after the probing period ends, the driving unit moves the simulated body to a predetermined evacuation position in a direction away from the surgical instrument in the three-dimensional space. According to this configuration, the inconvenience that the surgical instrument carelessly comes into contact with the simulated body during the operation of the surgical instrument other than the probing period is prevented.

また、前記模擬体の表面を黒色とすることで、簡易な方法で、練習用カメラで撮像された練習画像内から模擬体を視認困難にして教材映像内の手術対象部位等の内臓側の映像を練習者に効果的乃至より確実に提示することが可能となる。 In addition, by making the surface of the simulated body black, it is difficult to visually recognize the simulated body from the practice image captured by the practice camera by a simple method, and the image of the internal organs such as the surgical target part in the teaching material image. Can be effectively or more reliably presented to the practitioner.

また、本発明は、前記練習用の手術器具と前記模擬体との接触を検知する接触検知部を備えたものである。この構成によれば、プロービング操作の成否が確認可能となる。 Further, the present invention includes a contact detection unit that detects contact between the surgical instrument for practice and the simulated body. According to this configuration, the success or failure of the probing operation can be confirmed.

本発明によれば、プロービングを遭遇型力触覚提示器で再現することで、モニタ奥行方向に対する、より高い位置把握性を可能にする。 According to the present invention, by reproducing the probing with the encounter type force tactile presenter, it is possible to grasp the position higher in the depth direction of the monitor.

本発明に係る手術トレーニング装置の一実施形態を示す概略構成図である。It is a schematic block diagram which shows one Embodiment of the surgical training apparatus which concerns on this invention. 遭遇型力触覚提示器の一実施形態を示す図で、(a)は遭遇型力触覚提示器の側面視の概略構成図、(b)はプロービングに対して遭遇型力触覚を提示する模擬体と模擬体基準の座標系を説明する図である。It is a figure which shows one Embodiment of the encounter type force tactile presenter, (a) is the schematic block diagram of the side view of the encounter type force tactile presenter, (b) is the simulated body which presents the encounter type force tactile sense to probing. It is a figure explaining the coordinate system of the simulated body reference. 内視鏡カメラで撮像された教材映像中のプロービングの位置に対応させて模擬体による遭遇型力触覚提示の座標関係を説明する図である。It is a figure explaining the coordinate relation of the encounter type force tactile sense presentation by a simulated body corresponding to the position of the probing in the teaching material image imaged by an endoscopic camera. 練習用カメラの支持構造の側面視の概略構成図である。It is a schematic block diagram of the side view of the support structure of a practice camera. 本発明に係る手術トレーニング装置の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the surgical training apparatus which concerns on this invention. プロービング履歴を記憶するメモリマップの一例を示す図である。It is a figure which shows an example of the memory map which stores the probing history. 練習用カメラの移動とモニタ映像との関連の一例を示す映像図で、(a)は練習用カメラの進入が浅い状態、(b)はより深く進入した状態である。In the video diagram showing an example of the relationship between the movement of the practice camera and the monitor image, (a) is a state in which the practice camera has a shallow approach, and (b) is a state in which the practice camera has entered deeper. 練習支援処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of practice support processing. 練習評価処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of practice evaluation processing. 遭遇型力触覚提示の有無と位置エラーとの関係を示す図で、(a)は遭遇型力触覚提示が有る場合、(b)は遭遇型力触覚提示が無い場合である。It is a figure which shows the relationship between the presence or absence of the encounter type force tactile presentation and the position error, (a) is the case where there is an encounter type force tactile presentation, and (b) is the case where there is no encounter type force tactile presentation. プロービング時刻に関する各軸の誤差量を示す図で、(a)はX軸、(b)はY軸、(c)はZ軸の場合である。It is a figure which shows the error amount of each axis about a probing time, (a) is the case of X axis, (b) is the case of Y axis, (c) is the case of Z axis.

まず、本発明の背景と概要について説明する。視野共有手法を応用した追従型の手術トレーニング装置は、練習者の操作する手術器具、例えば鉗子をロボットの先に取り付けられたカメラで撮影し、その映像をモニタに再生中の、手術の録画映像(教材映像)と重畳させ、練習者が熟練医の鉗子を追いかけることでトレーニングを行うものである。この際、練習者の鉗子を映すカメラの位置は予め計測などされており、手術時に撮像し、予め計測などされた各時刻における位置、姿勢と同じように移動するように制御され、練習者の鉗子は常に熟練医の行った手術と同一の位置から腹腔内に挿入されているかのように画面内に重畳することができる。これにより、練習者は熟練医の鉗子の動きを常に追い続けることができ、なめらかな動きなどのスキルを習得することが可能となる。練習用のカメラが位置3次元の自由度を持つロボットを採用する場合、すなわち、光軸まわりの回転を再現できない態様では、練習映像では撮影した練習者の鉗子映像を教材映像と一致する向き(角度)になるように描画プログラム内で画像を回転させて合成させた。 First, the background and outline of the present invention will be described. A follow-up surgical training device that applies a field-sharing technique captures surgical instruments operated by the practitioner, such as forceps, with a camera attached to the tip of the robot, and the video is being played back on the monitor. The training is performed by superimposing it on the (teaching material video) and the practitioner chasing the forceps of a skilled doctor. At this time, the position of the camera that reflects the practitioner's forceps is measured in advance, and it is controlled so that it moves in the same manner as the position and posture at each time, which is imaged at the time of surgery and measured in advance. The forceps can always be superimposed on the screen as if they were inserted into the abdominal cavity from the same position as the surgery performed by a skilled doctor. As a result, the practitioner can always follow the movement of the forceps of a skilled doctor, and can acquire skills such as smooth movement. When the practice camera adopts a robot with three-dimensional freedom of position, that is, in a mode in which the rotation around the optical axis cannot be reproduced, the orientation of the practitioner's forceps image taken in the practice image matches the teaching material image ( The images were rotated and combined in the drawing program so as to be (angle).

手術トレーニング装置は、熟練医の手術映像に練習者の鉗子を重ね合わせて追従することで手術を追体験するかたちで学習を進めることが可能であるが、手術映像が2次元であるため、奥行き情報は画像上の鉗子の大きさでのみ判断することから、追従する精度は、モニタ面方向に比して欠落している。また、触覚に関するフィードバック手法を採用する前は、手本映像内で熟練医が電子メス(鉗子の一例)で直接内臓に触れることで得られていた触覚情報の追体験、ひいてはそこから推測されうる奥行き情報の獲得は困難であった。そこで、遭遇型力触覚提示器を用いて、内臓の位置の再現を試みた。本来の遭遇型力触覚提示器は、ユーザの位置を計測し、ユーザがバーチャル環境内で物体に触れる前に、内臓壁に見立てた模擬体を、目標とする位置・姿勢で待機させておくものである。そして、接触中のユーザの動きに合わせて模擬体を移動させることで、様々な形状を表現できる。腹腔鏡手術における鉗子の内臓壁との遭遇を表現する場合、接触点は軟体である必要がある。一方、軟体との接触中に模擬体が移動すると、想定していない牽引力がユーザに与えられることがありえる。そのため、鉗子との接触中は模擬体を静止させることが望ましい。 The surgical training device can advance learning in the form of re-experiencing the surgery by superimposing the forceps of the practitioner on the surgical image of the skilled doctor and following it, but since the surgical image is two-dimensional, the depth Since the information is judged only by the size of the forceps on the image, the accuracy of following is lacking as compared with the direction of the monitor surface. In addition, before adopting the feedback method for tactile sensation, it can be inferred from the re-experience of tactile information obtained by a skilled doctor directly touching the internal organs with an electronic knife (an example of forceps) in the model image. It was difficult to obtain depth information. Therefore, we tried to reproduce the position of internal organs using an encounter-type force-tactile presenter. The original encounter-type force-tactile presenter measures the user's position and makes a simulated body that looks like a visceral wall stand by at the target position and posture before the user touches an object in the virtual environment. Is. Then, various shapes can be expressed by moving the simulated body according to the movement of the user during contact. When expressing an encounter with the visceral wall of forceps in laparoscopic surgery, the contact point must be soft. On the other hand, if the simulated body moves during contact with the soft body, an unexpected traction force may be applied to the user. Therefore, it is desirable to keep the simulated body stationary during contact with the forceps.

鉗子のモニタ面奥行方向への追従を改善するに当って、鉗子のモニタ面奥行方向への移動に関して内臓壁との遭遇を実現するようにした。すなわち、鉗子に触覚を提示する場面としてプロービング(Probing)動作を利用することとした。プロービングとは、鉗子を内臓壁に押しつけて内臓壁の状態を把握する操作であり、腹腔鏡手術において重要な操作であるとされる。なお、本プロービングは画面奥行方向乃至奥行成分を有する方向への作業をいう。 In order to improve the follow-up of the forceps in the depth direction of the monitor surface, the encounter with the visceral wall was realized with respect to the movement of the forceps in the depth direction of the monitor surface. That is, it was decided to use the probing motion as a scene for presenting the tactile sensation to the forceps. Probing is an operation of pressing forceps against a visceral wall to grasp the state of the visceral wall, and is considered to be an important operation in laparoscopic surgery. In addition, this probing refers to the work in the screen depth direction or the direction having the depth component.

手術トレーニングにおいて、モニタ面方向への追従は奥行方向に比べて容易であり、プロービングのシーンに限れば、内臓壁全体のうち、練習者の鉗子先端が通過する(押し当てる)部分は、ある半径の円内に収まることが予備的に行った実験から予想できている。 In surgical training, it is easier to follow the monitor surface direction than in the depth direction, and in the probing scene, the part of the entire internal organ wall through which the tip of the forceps of the practitioner passes (presses) has a certain radius. It can be predicted from the preliminary experiment that it fits within the circle.

本手術トレーニング装置は、プロービングに関して、内臓壁と接触する鉗子の位置の計測を行わず、各プロービング操作の時刻には、それぞれの内臓壁の位置で模擬体を待機させるように移動制御させる。 The surgical training device does not measure the position of the forceps in contact with the visceral wall for probing, and at the time of each probing operation, the simulated body is moved and controlled to stand by at the position of each visceral wall.

図1は、本発明に係る手術トレーニング装置10の一実施形態を示す概略構成図である。手術トレーニング装置10は、手術姿勢での高さに合うような脚を有するテーブル形状の基部2を備え、主要な構成部は、そのテーブルの面上に配設されている。手術トレーニング装置10は、練習空間及び手術状態を再現するための部材を備えた練習器具部3、練習器具部3の近傍に配置され、練習空間を撮像する練習用カメラ40を移動可能に支持する撮像部4、教材映像及び練習用カメラの撮像映像を合成表示するモニタ5、及び模擬体60を移動可能に支持する遭遇型力触覚提示器6を備えて構成されている。 FIG. 1 is a schematic configuration diagram showing an embodiment of the surgical training device 10 according to the present invention. The surgical training device 10 includes a table-shaped base 2 having legs that match the height in the surgical position, with major components disposed on the surface of the table. The surgical training device 10 is arranged in the vicinity of the practice instrument section 3 and the practice instrument section 3 provided with a member for reproducing the practice space and the surgical state, and movably supports the practice camera 40 for imaging the practice space. It is configured to include an imaging unit 4, a monitor 5 that synthesizes and displays teaching material images and images captured by a practice camera, and an encounter-type force-tactile presenter 6 that movably supports the simulated body 60.

練習器具部3は、テーブル面の一端側、この例では左部にT字状の支持部材31が立設され、所定高さで左右に延設されたアーム部にトロカーを機能的に模擬した円筒状の環状体32,32が所定距離だけ離間して取り付けられている。トロカーとは、手術患者の腹部に開けられる円孔に設けられる環状の部材で、鉗子(電子メス等含む)などの手術器具、また内視鏡カメラを腹腔内に対して抜き差しするものである。図1では、電子メス33と鉗子34(以下、便宜上、鉗子33,34という。)とが差し込まれた状態を想定している。鉗子33,34の先端付近の空間は、手術空間を想定した練習空間となる。鉗子33は、長尺体の先端部に高周波電流を供給して患部を加熱切開する電子メスに対応するもので、切開、切除等の前において当該部位乃至その周辺部位の位置、状態を把握、確認するためのプロービングを行うものとしても用いられる。なお、鉗子33,34は実物の他、練習用の模擬器具を採用してもよい。 In the training equipment section 3, a T-shaped support member 31 is erected on one end side of the table surface, in this example, on the left portion, and a trocar is functionally simulated on an arm portion extending to the left and right at a predetermined height. Cylindrical annular bodies 32, 32 are attached at a predetermined distance. A trocar is an annular member provided in a circular hole opened in the abdomen of a surgical patient, and is used to insert and remove surgical instruments such as forceps (including an electronic knife) and an endoscopic camera into the abdominal cavity. In FIG. 1, it is assumed that the electronic knife 33 and the forceps 34 (hereinafter, referred to as forceps 33 and 34 for convenience) are inserted. The space near the tips of the forceps 33 and 34 is a practice space assuming a surgical space. The forceps 33 corresponds to an electronic scalpel that supplies a high-frequency current to the tip of a long body to heat-cut the affected part, and grasps the position and state of the part or its surrounding part before incision, excision, or the like. It is also used as a probing for confirmation. In addition to the actual forceps 33 and 34, a simulated instrument for practice may be adopted.

撮像部4は、先端に内視鏡カメラに対応する練習用カメラ40と撮像部位を照らす照明用の光源401とを備えている。撮像部4の本体筐体部4A(図4参照)には、図4で詳述する駆動機構部が配設されている。練習用カメラ40は、練習時に鉗子33,34の手術器具の動きを撮像して、モニタ5を介して練習者に練習空間、練習状況を観察可能にする。 The imaging unit 4 is provided with a practice camera 40 corresponding to the endoscopic camera and a light source 401 for illumination that illuminates the imaging region at the tip. The main body housing portion 4A (see FIG. 4) of the imaging unit 4 is provided with a drive mechanism portion described in detail in FIG. The practice camera 40 captures the movement of the surgical instruments of the forceps 33 and 34 during practice, and enables the practitioner to observe the practice space and the practice situation via the monitor 5.

モニタ5は、練習器具部3で練習する練習者の前方に対向させて所定高さに設定された表示画面を備えている。モニタ5には、教材映像及び練習用カメラ40で撮像された練習映像が合成表示される。合成表示方法は、視野共有手法であれば種々の表示形態が採用可能であり、時分割方式や半透明合成方式が好ましい。なお、モニタ5に表示される教材映像の空間は、左右方向をX軸、上下方向をY軸、奥行方向をZ軸としている。モニタ5は設置式の他、頭部装着型HMD(Head Mount Display)でもよい。 The monitor 5 is provided with a display screen set to a predetermined height so as to face the front of the practitioner practicing in the practice equipment unit 3. On the monitor 5, the teaching material image and the practice image captured by the practice camera 40 are combined and displayed. As the composite display method, various display forms can be adopted as long as it is a visual field sharing method, and a time division method or a translucent composite method is preferable. The space of the teaching material image displayed on the monitor 5 has an X-axis in the horizontal direction, a Y-axis in the vertical direction, and a Z-axis in the depth direction. The monitor 5 may be a head-mounted HMD (Head Mount Display) as well as a stationary type.

遭遇型力触覚提示器6は、先端に生体内臓を模擬した模擬体60を備えている。遭遇型力触覚提示器6の本体筐体部6A(図2参照)には、図2で詳述する駆動機構部が配設されている。模擬体60は、練習器具部3の練習空間に対して出没可能に駆動される。 The encounter-type force-tactile presenter 6 is provided with a simulated body 60 at the tip, which simulates the internal organs of a living body. The main body housing portion 6A (see FIG. 2) of the encounter-type force-tactile presenter 6 is provided with a drive mechanism portion described in detail in FIG. The simulated body 60 is driven so as to appear and disappear with respect to the practice space of the practice equipment unit 3.

図2は、遭遇型力触覚提示器6の一実施形態を示す図で、(a)は遭遇型力触覚提示器6の側面視の概略構成図、(b)はプロービングに対して遭遇型力触覚を提示する模擬体60と模擬体基準の座標系を説明する図である。 2A and 2B are views showing one embodiment of the encounter type force tactile presenter 6, in which FIG. 2A is a schematic configuration diagram of a side view of the encounter type force tactile presenter 6, and FIG. 2B is an encounter type force with respect to probing. It is a figure explaining the coordinate system of the simulated body 60 which presents a tactile sense and the simulated body reference.

図2(a)において、遭遇型力触覚提示器6は、基部2の上部に配置され、本実施形態では、機構部62として、公知のパラレルリンク機構が採用されている。遭遇型力触覚提示器6は、本体筐体部6Aに支持された円盤状の基礎部61と、基礎部61の側面に支持された機構部62と、機構部62を可動させるアクチュエータとしてのモータ63と、機構部62の先端に、取付部材64を介して取り付けられた模擬体60とを備えている。 In FIG. 2A, the encounter-type force-tactile presenter 6 is arranged above the base 2, and in the present embodiment, a known parallel link mechanism is adopted as the mechanism 62. The encounter-type force-tactile presenter 6 includes a disk-shaped base portion 61 supported by the main body housing portion 6A, a mechanism portion 62 supported on the side surface of the base portion 61, and a motor as an actuator for moving the mechanism portion 62. 63 and a simulated body 60 attached to the tip of the mechanical portion 62 via an attachment member 64 are provided.

機構部62は、基礎部61の側面に、基点まわりに回動可能に連結された駆動リンク621、駆動リンク621に球状ジョイント622を介して連結された受動リンク623、及び受動リンク623に球状ジョイント624を介して連結された可動板625を備えている。モータ63は、基礎部61に連結された機構部62の長さ寸法を伸縮させるシリンダ構造のアクチュエータでもよい。なお、機構部62、モータ63は、それぞれ3軸分の構成を備えている。模擬体60は、前面側が凹面、例えば半楕円球形状の凹面を有し、楕円頂部となる後部の外面側で取付部材64に連結されている。凹面は、半楕円球形状の他、放物面又は双曲面を有するもの、また曲率を有する、すなわち連続的に表面角度が変化するような曲面を備えたものが望ましい。 The mechanical portion 62 has a drive link 621 rotatably connected to the side surface of the base portion 61 around a base point, a passive link 623 connected to the drive link 621 via a spherical joint 622, and a spherical joint to the passive link 623. It includes a movable plate 625 connected via a 624. The motor 63 may be an actuator having a cylinder structure that expands and contracts the length dimension of the mechanism portion 62 connected to the base portion 61. The mechanism unit 62 and the motor 63 each have a configuration for three axes. The simulated body 60 has a concave surface on the front surface side, for example, a semi-elliptical spherical concave surface, and is connected to the mounting member 64 on the outer surface side of the rear portion which is the top of the ellipse. The concave surface is preferably a semi-elliptical sphere, a paraboloid or a hyperboloid, or a curved surface having a curvature, that is, a curved surface in which the surface angle changes continuously.

模擬体60は、例えば樹脂材乃至金属性の板材で構成され、その凹面側の表面には、生体内臓の軟性、弾力性に近い状況、すなわち手術器具を介しての同様な接触感を再現するべく、弾力を有する樹脂材、ゲル状材料が塗布乃至貼着された弾性層601が形成されている。さらに、粘着性材が含まれていてもよい。また、模擬体60の重量、あるいはモータ63による模擬体60の制動力(剛性)を調整することで、内臓壁により近い状況に近づけることが可能となる。 The simulated body 60 is made of, for example, a resin material or a metallic plate material, and the concave surface thereof reproduces a situation close to the softness and elasticity of the internal organs of the living body, that is, a similar feeling of contact through a surgical instrument. Therefore, an elastic layer 601 to which an elastic resin material or gel-like material is applied or adhered is formed. In addition, an adhesive material may be included. Further, by adjusting the weight of the simulated body 60 or the braking force (rigidity) of the simulated body 60 by the motor 63, it is possible to approach the situation closer to the internal organ wall.

また、模擬体60は、練習空間に位置しており、練習用カメラ40の画角内に入り、撮像されるため、そのままでは実手術の教材映像と合成されてモニタ5に表示される。従って、練習者が適切に練習を行えるためには、模擬体60がモニタ上で視認できず、一方、操作する鉗子33,34は光反射性を上げるなどの視認性向上処理を表面に施して明瞭に視認できるようにする必要がある。そこで、模擬体60の表面を、例えば黒色のつや消しラッカーをスプレー等で塗装し、一方、鉗子先端側等に反射材を塗布し、練習用カメラ40の撮像の設定において明るさ、コントラスト、ホワイトバランス等の調整が行われていることが望ましい。これにより、モニタ5には練習用カメラ40が撮像した映像信号が画像合成ソフトウェアによる加工無しで重畳され、映像の遅延を最小限に抑えた環境で、教材映像の内臓画像と鉗子画像の上に、練習用の鉗子33,34のみの画像を視認可能に表示することができる。 Further, since the simulated body 60 is located in the practice space, enters the angle of view of the practice camera 40 and is imaged, it is combined with the teaching material image of the actual surgery and displayed on the monitor 5 as it is. Therefore, in order for the practitioner to practice properly, the simulated body 60 cannot be visually recognized on the monitor, while the forceps 33 and 34 to be operated are subjected to visibility improving treatment such as increasing light reflection on the surface. It needs to be clearly visible. Therefore, the surface of the simulated body 60 is painted with, for example, a black matte lacquer by spraying or the like, while a reflective material is applied to the tip side of the forceps, etc., and the brightness, contrast, and white balance are set in the imaging settings of the practice camera 40. It is desirable that adjustments such as are made. As a result, the video signal captured by the practice camera 40 is superimposed on the monitor 5 without processing by the image synthesis software, and the video signal is superimposed on the built-in image and the forceps image of the teaching material video in an environment where the delay of the video is minimized. , The image of only the forceps 33 and 34 for practice can be visually displayed.

取付部材64、すなわち模擬体60は、各軸のモータ63の駆動によって空間上での任意の位置と向きとが設定可能にされる。なお、本実施形態で示すように、模擬体60の凹面を軸対称に形成する態様では、後述するようにすべての向きの設定が可能となる。 The mounting member 64, that is, the simulated body 60, can be set to an arbitrary position and orientation in space by driving the motor 63 of each axis. As shown in the present embodiment, in the embodiment in which the concave surface of the simulated body 60 is formed axisymmetrically, all the orientations can be set as described later.

凹面型の模擬体60を使用する方法では、小さな装置の位置制御のみによって任意の形状、すなわち向き(表面の角度)を提示することが可能である。手術トレーニング装置10では鉗子を用いるため、内臓壁の模擬形状として半楕円球の凸面側を採用した場合には、鉗子33の進入角度によっては接触しない場合がある。すなわち、内臓壁の模擬形状が凸面の接触点の接線の傾きより鉗子33の進入軸方向が楕円の中心から外側に大きくなったとき、接触の失敗を起こす。一方、内臓壁の模擬形状が凹面の場合、接触しうる全ての点における接線方向と鉗子33の進入軸方向とは必ず交わるため、凸面型における失敗条件が存在しない。模擬体60のように、形状を半楕円球の凹面とすることで、接触点の傾きを連続で変化させることができ、かつ模擬体60の位置制御のみで接触物(鉗子33)に対し、任意の角度を提示可能であるため、接触物と模擬体60の位置ずれが起きた場合でも、その傾き誤差は小さい。また、半楕円球(厳密には接触点)の曲率が小さいほど接触点とその近傍との差は小さくなり、リアリティは損なわれにくくなる。なお、模擬体60の曲率、サイズは、本手法を用いる環境に応じて設計可能である。 In the method using the concave simulated body 60, it is possible to present an arbitrary shape, that is, an orientation (angle of the surface) only by controlling the position of a small device. Since forceps are used in the surgical training device 10, when the convex side of the semi-elliptical sphere is adopted as the simulated shape of the internal organ wall, the forceps 33 may not come into contact with each other depending on the approach angle. That is, when the simulated shape of the internal organ wall becomes larger from the center of the ellipse to the outside in the direction of the approach axis of the forceps 33 than the inclination of the tangent line of the contact point of the convex surface, the contact fails. On the other hand, when the simulated shape of the internal organ wall is a concave surface, the tangential direction at all points that can be contacted and the approach axis direction of the forceps 33 always intersect, so that there is no failure condition in the convex surface type. By making the shape a concave surface of a semi-elliptical sphere like the simulated body 60, the inclination of the contact point can be continuously changed, and the contact object (forceps 33) can be touched only by controlling the position of the simulated body 60. Since it is possible to present an arbitrary angle, even if the contact object and the simulated body 60 are misaligned, the tilt error is small. Further, the smaller the curvature of the semi-elliptical sphere (strictly speaking, the contact point), the smaller the difference between the contact point and its vicinity, and the reality is less likely to be impaired. The curvature and size of the simulated body 60 can be designed according to the environment in which this method is used.

また、模擬体60を半楕円球とすることで、凹面が連続した傾きを持ことから姿勢の制御が不要になり、位置制御のみで空間5自由度を表現可能となる。よって、遭遇型力触覚を半楕円球型によって提示することで、任意の傾きを持つ点を空間3自由度の移動で空間5自由度を表現することが可能となる。この半楕円球型を用いて提示する手法は、模擬体60の制御の自由度を空間3自由度に抑えることができ、かつ従来の手法では獲得できなかった弾性を持つ物体の形状を人に錯覚させ、腹腔鏡追従型トレーニングにて練習者のモニタ奥行きの学習が進むと考えられる。このように、本実施形態に係る手法は、形状の認識に必要な平行移動及び回転の自由度を平行移動のみで表現できる、すなわち空間5自由度が3自由度の制御で表現可能とするものである。 Further, by making the simulated body 60 a semi-elliptical sphere, since the concave surface has a continuous inclination, the attitude control becomes unnecessary, and the space 5 degrees of freedom can be expressed only by the position control. Therefore, by presenting the encounter-type force-tactile sensation by a semi-elliptical sphere, it is possible to express a space having 5 degrees of freedom by moving a point having an arbitrary inclination with 3 degrees of freedom in space. The method presented using this semi-elliptical sphere can suppress the degree of freedom of control of the simulated body 60 to 3 degrees of freedom in space, and gives a person the shape of an elastic object that could not be obtained by the conventional method. It is thought that the learner's monitor depth will be learned by laparoscopic-following training. As described above, the method according to the present embodiment can express the degrees of freedom of parallel movement and rotation required for shape recognition only by parallel movement, that is, the space 5 degrees of freedom can be expressed by controlling 3 degrees of freedom. Is.

図2(b)に示すように模擬体60の空間座標系を定義したとき、接触させたい角度(θ、φ)(0≦θ≦π,0≦φ≦π)が定まれば、模擬体60の凹面の空間座標(x,y,z)は、次式(1)によって一意に定まる。 When the spatial coordinate system of the simulated body 60 is defined as shown in FIG. 2 (b), if the angles (θ, φ) (0 ≦ θ ≦ π, 0 ≦ φ ≦ π) to be contacted are determined, the simulated body The spatial coordinates (x, y, z) of the concave surface of 60 are uniquely determined by the following equation (1).

p(x,y,z)=(r(1−sinθ sinφ),rcosθ cosφ,rcosθ)・・(1)
また、遭遇型力触覚提示器6及び模擬体60の設計の際には、取付部材64から原点Oへのベクトルをオフセット分として入力するだけでよいため、実応用の際にも空間3自由度の設定で済む。
p (x, y, z) = (r (1-sinθ sinφ), rcosθ cosφ, rcosθ) ・ ・ (1)
Further, when designing the encounter type force tactile presenter 6 and the simulated body 60, it is only necessary to input the vector from the mounting member 64 to the origin O as an offset portion, so that there are three degrees of freedom in space even in actual application. You only need to set.

接触する角度(θ、φ)とは、言い換えれば、返す力の方向ベクトルということに他ならない。すなわち、弾性力は、接触点の法線方向に力を返し、接触点のせん断方向に摩擦力として力が発生する。 The contact angle (θ, φ) is, in other words, the direction vector of the returning force. That is, the elastic force returns a force in the normal direction of the contact point, and a force is generated as a frictional force in the shear direction of the contact point.

図3は、内視鏡カメラで撮像された教材映像中のプロービングの位置に対応させて模擬体による遭遇型力触覚提示の座標関係を説明する図である。より詳細には、図3では、内視鏡カメラで撮像された教材映像Lb中のプロービングの位置Qpを計測乃至マニュアルで指定して取得し、内視鏡カメラの1又は複数の位置の撮像画像、及び内視鏡カメラの1又は複数の位置に対応する実空間位置とその姿勢とから、プロービングの実空間位置P(X,Y,Z)と姿勢である表面Orの角度(α、β)を取得する。次いで、前記表面角度(α、β)に対応する(一致する)角度(θ、φ)となる模擬体60の表面座標S(x,y,z)、及び模擬体60を移動させて前記表面座標Sの位置をプロービングの実空間位置P(X,Y,Z)に合わせる(すなわち移動制御させる)ようにする遭遇型力触覚提示の手法を示している。プロービング位置の角度(α、β)を模擬体60の表面角度(θ、φ)と対応させることで、プロービング時の感触、例えば弾性層601への押しつけに起因して生じる、面方向への弾性変形や応力がよりリアルに再現可能となる。 FIG. 3 is a diagram illustrating a coordinate relationship of encounter-type force-tactile presentation by a simulated body corresponding to a probing position in a teaching material image captured by an endoscopic camera. More specifically, in FIG. 3, the probing position Qp in the teaching material image Lb captured by the endoscopic camera is measured or manually specified and acquired, and the captured image at one or a plurality of positions of the endoscopic camera is obtained. , And the real space position P (X, Y, Z) of the probing and the angle (α, β) of the surface Or which is the posture from the real space position corresponding to one or more positions of the endoscopic camera and its posture. To get. Next, the surface coordinates S (x, y, z) of the simulated body 60, which is the (matching) angle (θ, φ) corresponding to the surface angle (α, β), and the simulated body 60 are moved to move the surface. An encounter-type force-tactile presentation method is shown in which the position of the coordinate S is adjusted to the real space position P (X, Y, Z) of the probing (that is, the movement is controlled). By associating the angle of the probing position (α, β) with the surface angle (θ, φ) of the simulated body 60, the feeling during probing, for example, the elasticity in the plane direction caused by pressing against the elastic layer 601. Deformation and stress can be reproduced more realistically.

図4は、練習用カメラ40の支持構造の側面視の概略構成図である。撮像部4は、本体筐体部4Aに支持された円盤状の基礎部41と、基礎部41の側面に支持された機構部42、機構部42を可動させるアクチュエータとしてのモータ43と、機構部42の先端に取付部材44を介して取り付けられた練習用カメラ40等を備えている。機構部42は、基礎部41に、基点まわりに回動可能に連結された駆動リンク421、駆動リンク421に球状ジョイント422を介して連結された受動リンク423、及び受動リンク423に球状ジョイント424を介して連結された可動板425を備えている。 FIG. 4 is a schematic configuration diagram of a side view of the support structure of the practice camera 40. The image pickup unit 4 includes a disk-shaped base portion 41 supported by the main body housing portion 4A, a mechanism portion 42 supported on the side surface of the base portion 41, a motor 43 as an actuator for moving the mechanism portion 42, and a mechanism portion. A practice camera 40 or the like attached to the tip of 42 via an attachment member 44 is provided. The mechanism unit 42 has a drive link 421 rotatably connected to the base portion 41, a passive link 423 connected to the drive link 421 via a spherical joint 422, and a spherical joint 424 to the passive link 423. It includes a movable plate 425 connected via a movable plate 425.

なお、練習用カメラ40は、教材作成で取得した動き履歴情報から逆運動学を利用して駆動量を得、かかる駆動量を各軸のモータ43に供給することで、実手術等の教材作成時の内視鏡カメラの動き履歴を再現することができる。上記において、練習用カメラ40と内視鏡カメラの長さ寸法が同一であれば、前記算出した駆動量がそのまま適用可能となり、一方、長さ寸法が違う場合には、その差分に応じて駆動量を補正すればよい。 The practice camera 40 obtains a driving amount from the motion history information acquired in the teaching material creation by using inverse kinematics, and supplies the driving amount to the motor 43 of each axis to create teaching materials such as actual surgery. It is possible to reproduce the movement history of the endoscopic camera at that time. In the above, if the length dimensions of the practice camera 40 and the endoscope camera are the same, the calculated drive amount can be applied as it is, while if the length dimensions are different, the drive amount is driven according to the difference. The amount may be corrected.

図5は、本発明に係る手術トレーニング装置10の一実施形態を示すブロック図である。手術トレーニング装置10は、コンピュータで構成される制御部7を備える。制御部7は、記憶部70と接続されると共に、撮像部4、モニタ5、遭遇型力触覚提示器6と接続されている。教材作成部8は、好ましくはコンピュータを備え、教材としての手術映像から教材映像及び関連情報を作成する。作成された教材映像等は、記憶部70に記憶される。詳細は後述する。 FIG. 5 is a block diagram showing an embodiment of the surgical training device 10 according to the present invention. The surgical training device 10 includes a control unit 7 composed of a computer. The control unit 7 is connected to the storage unit 70, and is also connected to the image pickup unit 4, the monitor 5, and the encounter-type force-tactile presenter 6. The teaching material creation unit 8 preferably includes a computer and creates teaching material images and related information from surgical images as teaching materials. The created teaching material video and the like are stored in the storage unit 70. Details will be described later.

記憶部70は、後述するように、教材に関する情報の他、手術トレーニングを実行するための制御プログラムを格納する。記憶部70は、教材作成部8で作成された情報を記憶するための、教材映像記憶部701、教材用カメラ動き履歴記憶部702、及びプロービング履歴記憶部703を備えている。 As will be described later, the storage unit 70 stores information about the teaching material and a control program for executing surgical training. The storage unit 70 includes a teaching material video storage unit 701, a camera movement history storage unit 702 for teaching materials, and a probing history storage unit 703 for storing the information created by the teaching material creation unit 8.

教材映像記憶部701は、内視鏡カメラで撮像された教材映像を記憶する。教材用カメラ動き履歴記憶部702は、練習用カメラ40の位置及び向きを教材用カメラの位置及び向きに対応させるための動き履歴(空間座標等)を記憶する。なお、練習用カメラ40の移動のみを制御する態様では、向きの変化に対応させて画像を逆方向に回転させてモニタ5に導くことで対応している。プロービング履歴記憶部703は、教材映像中に生じたプロービングの順序(教材映像の再生開始時点からの経過時間等)に対応して、プロービング位置に対応する実空間座標P(X,Y,Z)と表面角度(α、β)、及び模擬体60上の表面座標S(x、y、z)と表面角度(α、β)とを図6に示すようなデータテーブル形式で作成したものを記憶する。なお、記憶するデータとしては、少なくとも時刻t、実座標P及び模擬体60上の表面座標Sを含んでいればよい。 The teaching material image storage unit 701 stores the teaching material image captured by the endoscopic camera. The teaching material camera movement history storage unit 702 stores the movement history (spatial coordinates, etc.) for making the position and orientation of the practice camera 40 correspond to the position and orientation of the teaching material camera. In the mode of controlling only the movement of the practice camera 40, the image is rotated in the opposite direction and guided to the monitor 5 in response to the change in orientation. The probing history storage unit 703 has real space coordinates P (X, Y, Z) corresponding to the probing position corresponding to the order of probing (elapsed time from the start of playback of the teaching material video, etc.) occurring in the teaching material video. And the surface angle (α, β), and the surface coordinates S (x, y, z) and the surface angle (α, β) on the simulated body 60 are stored in the data table format as shown in FIG. To do. The data to be stored may include at least the time t, the actual coordinates P, and the surface coordinates S on the simulated body 60.

教材作成部8は、コンピュータを備えて構成されている場合、作成処理プログラムを実行することで、教材映像82から教材情報を作成する教材情報作成部81として機能する。また、必要に応じて教材情報の作成指示等を行う操作部として、キーボード等、また画面上に各種機能ボタン類を表示するタッチパネルを備えてもよい。記憶部70に記憶される教材情報は、教材情報作成部81で作成される。教材情報作成部81は、一部にマニュアル処理を利用して行う態様のほか、公知のVisual SLAM(Simultaneous Localization and Mapping)処理を利用することが好ましい。この処理によれば、教材用カメラで撮影された手術映像から環境、すなわち生体内の内臓その他の3次元情報と教材用カメラの位置姿勢とを同時に推定する技術です。そして、教材用カメラの実空間座標、姿勢が既知であることを利用し、かかる既知の座標位置、姿勢情報を適用することで、内臓等の3次元空間上の位置、表面角度を取得することが可能となる。 When the teaching material creation unit 8 is configured to include a computer, the teaching material creation unit 8 functions as a teaching material information creation unit 81 that creates teaching material information from the teaching material video 82 by executing a creation processing program. Further, as an operation unit for instructing the creation of teaching material information as needed, a keyboard or the like, or a touch panel for displaying various function buttons on the screen may be provided. The teaching material information stored in the storage unit 70 is created by the teaching material information creating unit 81. It is preferable that the teaching material information creation unit 81 uses a known Visual SLAM (Simultaneous Localization and Mapping) process in addition to the mode in which the manual process is partially used. According to this process, it is a technology that simultaneously estimates the environment, that is, the internal organs and other three-dimensional information in the living body and the position and orientation of the teaching material camera from the surgical images taken by the teaching material camera. Then, by utilizing the fact that the real space coordinates and posture of the teaching material camera are known and applying the known coordinate position and posture information, the position and surface angle in the three-dimensional space such as internal organs can be obtained. Is possible.

制御部7は、制御プログラムを実行することで、映像作成部71、カメラ位置駆動制御部72、遭遇型力触覚提示器駆動制御部73、プロービング検出部74、動き情報取得部75、及び練習評価部76として機能する。 By executing the control program, the control unit 7 executes an image creation unit 71, a camera position drive control unit 72, an encounter type force tactile presenter drive control unit 73, a probing detection unit 74, a motion information acquisition unit 75, and a practice evaluation. Functions as part 76.

映像作成部71は、教材映像記憶部701から時間方向に教材映像を読み出し、練習用カメラ40で撮像された練習映像と合成し、ビデオRAM(図略)を経てモニタ5に出力するものである。これにより、練習者は、モニタ5の自己の鉗子33,34を教材映像内の対応する鉗子133,134(図7参照)に重畳させるように追いかけ操作を行う練習ができる。なお、映像合成は、2つの映像を時分割で交互に表示させる態様の他、2つの映像を重ね合わせる視野合成法でもよい。両映像は、そのまま、あるいは識別可能な表示態様に加工してもよい。 The video creation unit 71 reads the teaching material video from the teaching material video storage unit 701 in the time direction, synthesizes it with the practice video captured by the practice camera 40, and outputs it to the monitor 5 via a video RAM (not shown). .. As a result, the practitioner can practice the chase operation so as to superimpose the forceps 33 and 34 of the monitor 5 on the corresponding forceps 133 and 134 (see FIG. 7) in the teaching material image. The video composition may be a visual field composition method in which the two images are superimposed in addition to the mode in which the two images are displayed alternately in a time division manner. Both images may be processed as they are or in an identifiable display manner.

カメラ位置駆動制御部72は、教材用カメラ動き履歴記憶部702の情報に従って練習用カメラ40を同一位置等に移動させる指示信号をモータ43に出力する。なお、教材用カメラの回転情報に対しては、映像作成部71により練習映像の回転処理が行われる。 The camera position drive control unit 72 outputs an instruction signal to the motor 43 to move the practice camera 40 to the same position or the like according to the information of the teaching material camera movement history storage unit 702. For the rotation information of the teaching material camera, the video creation unit 71 performs rotation processing of the practice video.

遭遇型力触覚提示器駆動制御部73は、練習開始からの時間を内部タイマ等で計時しており、図6のテーブルを参照しつつ、プロービングのイベントが発生する時点の直前に、図6のテーブルから模擬体60を設定位置に予め移動させる指示をモータ63に出力する。これにより、模擬体60はプロービング予定位置で待機することができ、遭遇型力触覚提示が実現可能となる。従って、練習者がプロービング操作を適正に行うとき、練習者は鉗子33を介して内臓壁からの模擬的な反力を受け、それによって奥行感を体感することができると共に、奥行方向をより高い精度で感じることが可能となる。 The encounter-type force-tactile presenter drive control unit 73 clocks the time from the start of practice with an internal timer or the like, and while referring to the table of FIG. 6, immediately before the time when the probing event occurs, FIG. An instruction to move the simulated body 60 to the set position in advance from the table is output to the motor 63. As a result, the simulated body 60 can stand by at the planned probing position, and the encounter-type force-tactile presentation can be realized. Therefore, when the practitioner properly performs the probing operation, the practitioner receives a simulated reaction force from the internal organ wall via the forceps 33, whereby the practitioner can experience a sense of depth and the depth direction is higher. It is possible to feel with accuracy.

また、遭遇型力触覚提示器駆動制御部73は、教材が示すプロービング時点を挟んで所定の時間幅を設定し、その間、模擬体60を静止させて練習者からの操作に対する待機と受け付けとを行うようにしている。そして、その時間が経過すると、鉗子33が届かないような位置、例えばより奥行側に退避するようにして、プロービングのない期間に、鉗子33が不用意に模擬体60に当らないようにしている。退避位置は、固定せず、次のプロービング位置に対して位置を設定するようにしてもよい。また、静止期間を設けることで、プロービング操作中に模擬体60が移動して模擬体60からの反力が不自然に変わらないようにしている。 Further, the encounter-type force-tactile presenter drive control unit 73 sets a predetermined time width with the probing time point indicated by the teaching material in between, and during that time, the simulated body 60 is stationary to wait and accept the operation from the practitioner. I try to do it. Then, when that time elapses, the forceps 33 are retracted to a position where the forceps 33 cannot reach, for example, to the depth side so that the forceps 33 does not inadvertently hit the simulated body 60 during the period when there is no probing. .. The retracted position may not be fixed and may be set with respect to the next probing position. Further, by providing a stationary period, the simulated body 60 moves during the probing operation so that the reaction force from the simulated body 60 does not change unnaturally.

プロービング検出部74は、モータ63が例えばサーボモータ等の場合、模擬体60がプロービング操作の押し付け力を受けると、その力によってモータ63の駆動信号供給回路系に位置を維持する電流が流れるため、この電流を検知するようにしてプロービングが適正に行われたことを検知する。あるいは、プロービング検出部74は、練習映像から鉗子33の先端の空間座標を検知し、プロービング座標位置と比較することで、プロービングの成否を判定してもよい。 In the probing detection unit 74, when the motor 63 is, for example, a servomotor or the like, when the simulated body 60 receives the pressing force of the probing operation, a current for maintaining the position flows in the drive signal supply circuit system of the motor 63 by the force. Proper probing is detected by detecting this current. Alternatively, the probing detection unit 74 may determine the success or failure of the probing by detecting the spatial coordinates of the tip of the forceps 33 from the practice image and comparing it with the probing coordinate positions.

動き情報取得部75は、練習用カメラ40の位置、向きの情報、及び練習映像から鉗子33,34の先端の空間座標を継続して検知する。動き情報取得部75は、映像から分析する方法の他に、鉗子33,34の先端に光学的又は磁気的な信号発生源を取り付け、周囲から当該発生源の位置を3次元的に計測する公知のセンサを使用する態様でもよく、さらには鉗子33,34の先端に3軸加速度計を取り付けたセンサでもよい。 The motion information acquisition unit 75 continuously detects the spatial coordinates of the tips of the forceps 33 and 34 from the position and orientation information of the practice camera 40 and the practice image. In addition to the method of analyzing from images, the motion information acquisition unit 75 is known to attach an optical or magnetic signal source to the tips of forceps 33 and 34 and measure the position of the source three-dimensionally from the surroundings. The sensor may be used, or a sensor having a 3-axis accelerometer attached to the tips of the forceps 33 and 34 may be used.

練習評価部76は、教材映像との重畳(追いかけ)状況から、特に教材映像中の鉗子133,134と練習映像中の対応する鉗子33,34との重畳状態を、例えば数値として算出し、後述するようにして練習成果を評価する。練習評価部76は、プロービングの成否を含めることができる。 The practice evaluation unit 76 calculates, for example, a numerical value the superposition state of the forceps 133 and 134 in the teaching material image and the corresponding forceps 33 and 34 in the practice image from the superimposition (chasing) situation with the teaching material image, which will be described later. Evaluate the practice results as you do. The practice evaluation unit 76 can include the success or failure of probing.

図7は、練習時の合成映像例を示し、(a)は練習用カメラ40が手前側にある場合、(b)は練習用カメラ40が奥側に進入された場合である。図7は、手術の一例としてのS字結腸の術例を示している。図7(a)では、大腸映像B1のほぼ全体が見える浅い位置に練習用カメラ40が位置付けられており、図7(b)では、練習用カメラ40がさらに奥へ、すなわち直腸映像B2とS字結腸映像B3との部位に接近している。このように練習用カメラ40の移動に伴って、手術部位の映像サイズや向きが変化するとともに、画面内の手術器具である鉗子133,134、33,34も映像サイズ、表示範囲、また視線(向き)も含めて見え方が変化している。 FIG. 7 shows an example of a composite image during practice. FIG. 7A shows a case where the practice camera 40 is on the front side, and FIG. 7B shows a case where the practice camera 40 is inserted on the back side. FIG. 7 shows a surgical example of the sigmoid colon as an example of surgery. In FIG. 7A, the practice camera 40 is positioned at a shallow position where almost the entire colon image B1 can be seen, and in FIG. 7B, the practice camera 40 is moved further back, that is, the rectal images B2 and S. It is close to the site with the character colon image B3. In this way, as the practice camera 40 moves, the image size and orientation of the surgical site change, and the forceps 133, 134, 33, 34, which are surgical instruments on the screen, also change in image size, display range, and line of sight ( The appearance has changed, including the orientation).

モータ43によって練習用カメラ40の位置が、教材作成時の内視鏡カメラの動き履歴を再現する結果、モニタ5には教材作成時と一致した視点及び視線で映像が表示されている。図中、鉗子33,34は練習者が操作している鉗子の映像である。練習用カメラ40の移動に伴って教材側の鉗子133,134の見え方が大きく変わっても、その動き履歴を再現するべく練習用カメラ40の視点及び視線を一致させるので、鉗子133,134の見え方と一致するようになり、その結果、教材側の鉗子133,134の動きに重畳させる操作のトレーニングが有意となる。上記において、手術部位であるS字結腸の生体表面に対して、鉗子133を操作して切開乃至切除前にプロービングを行って結腸の表面状態や位置確認を行う。 As a result of the position of the practice camera 40 being reproduced by the motor 43 in the movement history of the endoscope camera at the time of creating the teaching material, the image is displayed on the monitor 5 with the same viewpoint and line of sight as at the time of creating the teaching material. In the figure, forceps 33 and 34 are images of forceps operated by the practitioner. Even if the appearance of the forceps 133 and 134 on the teaching material side changes significantly with the movement of the practice camera 40, the viewpoint and line of sight of the practice camera 40 are matched in order to reproduce the movement history of the forceps 133 and 134. It comes to match the appearance, and as a result, the training of the operation superimposed on the movement of the forceps 133 and 134 on the teaching material side becomes significant. In the above, the surface condition and position of the colon are confirmed by operating forceps 133 to perform probing on the biological surface of the sigmoid colon, which is the surgical site, before incision or excision.

図8は、練習支援処理の手順の一例を示すフローチャートである。まず、教材映像の再生が開始されると(ステップS1)、教材映像が時間方向に読み出されると共に、練習用カメラ40からの練習映像が読み出され、両映像が合成されて、モニタ5に出力される(ステップS3)。 FIG. 8 is a flowchart showing an example of the procedure of the practice support process. First, when the reproduction of the teaching material image is started (step S1), the teaching material image is read out in the time direction, the practice image from the practice camera 40 is read out, both images are combined, and output to the monitor 5. (Step S3).

次いで、図6に示すデータテーブルから次のタイミングのプロービング情報の事前の読み出しが行われ(ステップS5)、読み出し情報に基づいて模擬体60が設定位置に移動され、待機の状態とされる(ステップS7)。続いて、プロービング操作の有無の確認処理が、前記した方法を利用するなどして行われ(ステップS9)、成否に応じてプロービング評価が行われる(ステップS11)。次いで、データテーブルを参照して、次のプロービングの有無が判断され(ステップS13)、次のプロービングが有れば、ステップS5に戻って同様の処理が繰り返され、一方、次のプロービングが無ければ、本処理を終了する。なお、ステップS9、ステップS11は、必要に応じて採用すればよい。 Next, the probing information at the next timing is read in advance from the data table shown in FIG. 6 (step S5), and the simulated body 60 is moved to the set position based on the read information to be in the standby state (step). S7). Subsequently, the process of confirming the presence or absence of the probing operation is performed by using the method described above (step S9), and the probing evaluation is performed according to the success or failure (step S11). Next, with reference to the data table, the presence or absence of the next probing is determined (step S13), and if there is the next probing, the process returns to step S5 and the same process is repeated, while if there is no next probing, , End this process. In addition, step S9 and step S11 may be adopted as needed.

図9は、練習評価処理の手順の一例を示すフローチャートである。練習評価は、本実施形態では、所定時間毎、例えば1秒毎の割込で実行される。まず、割込時点(評価時点)か否かが判断され(ステップS21)、割込時点でなければ、本フローを抜け、割込時点であれば、教材用の鉗子133,134の先端位置の読み出しが行われる(ステップS23)。次いで、練習用の鉗子33,34の先端位置の検出される(ステップS25)。そして、両鉗子133と33、134と34の先端位置の差分の算出が行われる(ステップS27)。次いで、算出された差分に基づいて練習成果の評価が行われて(ステップS29)、リターンする。なお、評価の方法としては、差分の積算値に基づく方法、あるいは差分の増減状況に基づく方法、さらには他の一般的な評価手法が採用可能である。 FIG. 9 is a flowchart showing an example of the procedure of the practice evaluation process. In the present embodiment, the practice evaluation is performed by interrupting at predetermined time intervals, for example, every second. First, it is determined whether or not it is at the time of interruption (evaluation time) (step S21), and if it is not at the time of interruption, the flow is exited. Reading is performed (step S23). Next, the tip positions of the forceps 33 and 34 for practice are detected (step S25). Then, the difference between the tip positions of both forceps 133 and 33 and 134 and 34 is calculated (step S27). Then, the practice result is evaluated based on the calculated difference (step S29), and the result is returned. As the evaluation method, a method based on the integrated value of the difference, a method based on the increase / decrease status of the difference, and other general evaluation methods can be adopted.

図10、図11は、モニタ面奥行方向の有意性に関する「実験」の結果を示す図表である。 10 and 11 are charts showing the results of an "experiment" regarding the significance of the monitor surface in the depth direction.

「実験」は、実際のヒトS状結腸切除術の手術映像から重要な作業ごとに区切り、それぞれの作業において一連の分節を連続して追従する。本実験では手術映像の中でも「S状結腸間膜の内側アプローチ、性腺動静脈の確認」の作業を教材として採用した。本シーンではプロービング作業が多く含まれていた(約1分間で11回)。練習者はモニタ奥行方向が重畳された鉗子の大きさでしか判断できないため、遭遇型力触覚提示器を取り付けることで、奥行情報が視覚だけでなく触覚によっても得られることが期待できる。 The "experiment" is divided into important tasks from the surgical images of actual human sigmoid colectomy, and a series of segments are continuously followed in each task. In this experiment, the work of "inner approach of sigmoid mesentery, confirmation of gonadal arteries and veins" was adopted as a teaching material in the surgical video. This scene included a lot of probing work (11 times in about 1 minute). Since the practitioner can judge only by the size of the forceps on which the depth direction of the monitor is superimposed, it can be expected that the depth information can be obtained not only visually but also by touch by attaching the encounter type force tactile presenter.

「実験条件」
実験では、遭遇型力触覚提示器の使用、不使用の条件で比較を行った。実験前に実験参加者に対して実験者がシステムの説明と鉗子操作についてレクチャを行った後、実験者が1度だけ実演を行った。遭遇型力触覚提示器の有無に関わらず、各試行では、まず教材映像の最初のフレームの静止画像がモニタに表示され、被験者は画面右上に表示された重畳の教示にできるだけ近づくように重畳し、重畳できたと判断したら実験者に申告するよう求められ、その申告の後に動画が再生された。これは、動画の開始時に被験者が自らの鉗子を見失うことを避けるためである。トレーニング中の手本となる鉗子と自らの鉗子との重畳の方略として鉗子先端の大きさが画面内で揃うように指示した。
"Experimental conditions"
In the experiment, comparison was made under the conditions of using and not using the encounter type force tactile presenter. Before the experiment, the experimenter gave a lecture on the system explanation and forceps operation to the experiment participants, and then the experimenter gave a demonstration only once. In each trial, with or without the encounter-type force-tactile presenter, a still image of the first frame of the teaching material image is first displayed on the monitor, and the subject superimposes as close as possible to the superimposition teaching displayed in the upper right of the screen. , When it was judged that it could be superimposed, the experimenter was asked to declare it, and the video was played after the declaration. This is to prevent the subject from losing sight of his forceps at the start of the video. As a strategy for superimposing the forceps that serve as a model during training and their own forceps, the size of the forceps tips was instructed to be the same on the screen.

両条件とも16回試行し、各試行の間には1分間の休憩を設けた。その際、鉗子から手を離すように指示し、hand-eye coordinationを実験外で学習できないようにした。実験参加者は医学に関する専門知識を持たず、腹腔鏡に関する前知識も持たない工学系の20代の男性で、各条件について3名、計6名であった。 Both conditions were tried 16 times, with a 1-minute break between each trial. At that time, he was instructed to take his hand off the forceps so that he could not learn hand-eye coordination outside the experiment. The participants in the experiment were men in their twenties in engineering who had no medical expertise and no prior knowledge of laparoscopes, and there were a total of 6 people, 3 for each condition.

「評価基準」
実験では、各被験者が右手で操作する鉗子の先端の座標を計測した。右手鉗子の先端位置について、手本となる位置からの誤差をRMSEとして算出し、遭遇型力触覚提示の有無で比較した。ここで、手本となる位置とは、実験に使用した動画について1秒ごとの静止画を用意して、各時刻について鉗子を重ね合わせて測定した右鉗子先端の位置である。また、今回の実験では、遭遇型の力触覚提示器によって正しい奥行き情報を学習できているかどうかを検証するため、プロービングしている時刻についての位置を特に検証した。
"Evaluation criteria"
In the experiment, the coordinates of the tip of the forceps operated by each subject with the right hand were measured. For the tip position of the right hand forceps, the error from the model position was calculated as RMSE, and the comparison was made with and without encounter-type force tactile presentation. Here, the position serving as a model is the position of the tip of the right forceps measured by superimposing forceps at each time by preparing a still image every second for the moving image used in the experiment. In addition, in this experiment, in order to verify whether the correct depth information could be learned by the encounter-type force-tactile presenter, the position at the time of probing was particularly verified.

「実験結果」
まず、1分間の動画の各時刻の画面上下左右及び奥行きの3方向について位置エラー量を図10(a)(b)に示す。これは横軸が試行回数、縦軸がエラー量である。なお、モニタの左右方向をX軸、上下方向をY軸、奥行方向をZ軸とする。
"Experimental result"
First, the amount of position error is shown in FIGS. 10A and 10B in the three directions of the screen up / down / left / right and the depth at each time of the one-minute moving image. The horizontal axis is the number of trials, and the vertical axis is the amount of error. The left-right direction of the monitor is the X-axis, the up-down direction is the Y-axis, and the depth direction is the Z-axis.

X、Y軸に関して触覚の有無の両手法とも誤差量が小さいことから追従できていると思われる。一方で、Z軸に関して、触覚が無いグループは触覚があるグループに比べ、図10(b)の(s1/Z軸)、(s2/Z軸)、(s3/Z軸)に示すように、誤差量が大きい。これはモニタ奥行方向の学習がモニタ平面方向に比べ困難であることを示し、触覚によってモニタ奥行情報が補われたことを示す。 It seems that both methods with and without tactile sensation can follow the X and Y axes because the amount of error is small. On the other hand, regarding the Z-axis, the group without tactile sensation is compared with the group with tactile sensation as shown in (s1 / Z-axis), (s2 / Z-axis), and (s3 / Z-axis) in FIG. 10 (b). The amount of error is large. This indicates that learning in the monitor depth direction is more difficult than in the monitor plane direction, and indicates that the monitor depth information is supplemented by the sense of touch.

次に、11箇所あるプロービング箇所のうち1箇所(2番目)について、各軸方向の位置エラー量を追いトレアドバンスと提案システムの群間で比較したグラフを図11に示す。図10については全ての時刻に対する誤差量を確認したが、習熟を目的とする技術のシーンに関しての誤差を求めた。鉗子が内臓壁に触れる瞬間から±0.5秒間、触れた瞬間の位置からの誤差量とばらつきを求めた。 Next, FIG. 11 shows a graph comparing the amount of position error in each axial direction between the group of the training advance and the proposed system for one of the 11 probing points (second). In FIG. 10, the amount of error with respect to all the times was confirmed, but the error with respect to the scene of the technique for the purpose of mastery was obtained. For ± 0.5 seconds from the moment the forceps touched the visceral wall, the amount of error and variation from the position at the moment of touching were calculated.

図11(a)(b)(c)は、いずれも横軸が試行回数、縦軸が誤差量である。エラーバーは、標準偏差を示す。図11(a)(b)(c)から、X、Y軸方向に関して触覚の有無に依らず誤差量とばらつきは少ないが、Z軸方向に関して触覚がない場合に誤差量、ばらつき共に触覚がある場合に比べて大きいことがわかる。 In FIGS. 11A, 11B, and 11C, the horizontal axis represents the number of trials and the vertical axis represents the amount of error. Error bars indicate standard deviation. From FIGS. 11A, 11B, and 11C, there is little error amount and variation in the X and Y axis directions regardless of the presence or absence of tactile sensation, but there is tactile sensation in both the error amount and variation when there is no tactile sense in the Z axis direction. It turns out that it is larger than the case.

「考察」
図10から、遭遇型力触覚提示器の有無の両条件ともに画面の縦、横方向について追従性がトレーニングの序盤の時点で学習が進んでいることがわかった。これはモニタの水平・垂直方向についてhand-eye coordinationの学習が早期に定着したことを意味しており、それは模擬体を付与することによっても妨げられることがなかったことを示している。
"Discussion"
From FIG. 10, it was found that learning was progressing at the beginning of the training in terms of followability in the vertical and horizontal directions of the screen in both conditions with and without the encounter-type force-tactile presenter. This means that the learning of hand-eye coordination was established early in the horizontal and vertical directions of the monitor, and it was shown that it was not hindered by the addition of the simulated body.

また、画面奥行方向については、遭遇型力触覚提示器の有無の条件間で大きな差が現れた。すなわち、遭遇型力触覚が無い群は奥行方向についてエラー量が大きく、その位置が収束する傾向に乏しいのに対して、遭遇型力触覚提示器が有る群はエラー量が小さく、かつ位置も収束する傾向が見いだせた。すなわち、仮想的な内臓の位置が触覚によって提示されることにより、練習者が正しい奥行き情報を獲得できていると考えられる。 In addition, regarding the screen depth direction, a large difference appeared between the conditions with and without the encounter-type force-tactile presenter. That is, the group without the encounter-type force-tactile sense has a large error amount in the depth direction and the position tends to converge, whereas the group with the encounter-type force-tactile sense presenter has a small error amount and the position also converges. I found a tendency to do it. That is, it is considered that the practitioner can acquire the correct depth information by presenting the virtual position of the internal organs by tactile sensation.

次に、正しい奥行き情報を学習することが求められる鉗子の押し込み(プロービング)の際の位置を正しく学習できているかを比較した。実験に用いた動画の最中に現れる11回のプロービングのシーンのうち2回目について、プロービングが始まる時刻から終わる時刻までの鉗子先端の位置のエラー量を各軸方向について、図11(a)(b)(c)に示した。図中の実線が遭遇型力触覚提示器有り、破線(c)が遭遇型力触覚提示器無しの群である。図11(a)(b)はそれぞれ画面垂直及び水平方向についてのエラー量であり、両群ともに似通った位置でプロービングを追えていることがわかった。図11(c)は、画面奥行方向についてプロットしたものであるが、遭遇型力触覚提示器無しの群はエラー量の被験者間でのばらつきが遭遇型力触覚提示器を用いた群よりも大きいことがわかった。これは、鉗子を画面の奥へ押し込む動作を追いかける際、触覚の有無によって鉗子が触れる内臓位置を把握する難易度が大きく異なることを表しており、触覚によるフィードバックが無ければ、被験者間で異なる位置で学習が進んでしまうことを示している。すなわち、画面上で鉗子の先端を重畳するだけでは、正確な奥行き情報を得ることが難しいと思われる。 Next, it was compared whether the position at the time of pushing (probing) of the forceps, which is required to learn the correct depth information, could be learned correctly. Regarding the second of the 11 probing scenes that appear in the video used in the experiment, the error amount of the position of the forceps tip from the time when the probing starts to the time when the probing ends is shown in each axial direction in FIG. 11A (a). b) Shown in (c). The solid line in the figure is the group with the encounter type force tactile presenter, and the broken line (c) is the group without the encounter type force tactile presenter. FIGS. 11 (a) and 11 (b) show the error amounts in the vertical and horizontal directions of the screen, respectively, and it was found that the probing was followed at similar positions in both groups. FIG. 11C is a plot of the screen depth direction, and the group without the encounter-type force-tactile presenter has a larger variation in the error amount among the subjects than the group with the encounter-type force-tactile presenter. I understand. This means that when following the action of pushing the forceps into the back of the screen, the difficulty of grasping the position of the internal organs touched by the forceps differs greatly depending on the presence or absence of tactile sensation, and if there is no tactile feedback, the positions differ between the subjects. It shows that learning progresses with. That is, it seems difficult to obtain accurate depth information simply by superimposing the tips of the forceps on the screen.

「まとめ」
本実験では、視野共有手法を用いた追従型腹腔鏡手術トレーニングシステムが画面奥行方向の情報を得にくいことを改善するため、遭遇型力触覚提示器を用いて内臓の位置を再現したシステムを構築した。構築したシステムにおいて、鉗子の追従の際、画面奥行方向の再現性について被験者の誤差量と被験者間でのばらつきが減少したことが確認された。このことから、奥行方向についてより正しい位置で学習できることがわかった。これは2次元モニタで欠落していた奥行情報が保管されたことを意味しており、内臓の3次元的な位置関係を正しく把握できるため練習者の手術エラーの減少が期待される。
"Summary"
In this experiment, in order to improve the difficulty of obtaining information on the depth direction of the screen in the follow-up laparoscopic surgery training system using the visual field sharing method, a system that reproduces the position of internal organs was constructed using an encounter-type force tactile presenter. did. In the constructed system, it was confirmed that the amount of error of the subjects and the variation among the subjects in the reproducibility of the screen depth direction were reduced when the forceps were followed. From this, it was found that the depth direction can be learned at a more correct position. This means that the depth information that was missing on the 2D monitor is stored, and it is expected that the practitioner's surgical error will be reduced because the 3D positional relationship of the internal organs can be correctly grasped.

本実施形態では、機構部42,62としてパラレルリンク機構を採用したて3軸方向への移動を実現したが、これに限定されず、3軸のスライドレールを組みつけた態様、あるいは3軸型のジンバル機構を搭載した態様を採用してもよい。 In the present embodiment, the parallel link mechanism is adopted as the mechanism units 42 and 62 to realize the movement in the three-axis direction, but the movement is not limited to this, and the mode in which the three-axis slide rail is assembled or the three-axis type A mode equipped with the gimbal mechanism of the above may be adopted.

また、本実施形態では、取得した教材映像を記憶部70に記憶する態様としたが、これに代えて、通信部を利用して、リアルタイムで教材映像、教材関連情報を外部記憶部から手術トレーニング装置10に転送し、練習を行う態様とすることもできる。 Further, in the present embodiment, the acquired teaching material video is stored in the storage unit 70, but instead of this, the teaching material video and the teaching material-related information are surgically trained from the external storage unit in real time by using the communication unit. It is also possible to transfer to the device 10 and practice.

また、本実施形態では、手術行程を有する一例としてS字結腸の手術で説明したが、その他、内視鏡を用いた手術行程を有する一連の手術、あるいはそれ以外の一連の手術態様に対するトレーニング全般に適用可能である。 Further, in the present embodiment, the operation of the sigmoid colon has been described as an example having a surgical process, but in addition, a series of operations having a surgical process using an endoscope, or general training for a series of other surgical modes. Applicable to.

また、本実施形態では、半楕円球で説明したが、ここに、半とは正確に楕円球の半分の意味の他、略半分の態様を含めてよい。 Further, in the present embodiment, the semi-elliptical sphere has been described, but here, in addition to the meaning of exactly half of the elliptical sphere, a substantially half aspect may be included.

10 手術トレーニング装置
3 練習器具部
33,34 鉗子
4 撮像部
40 練習用カメラ
5 モニタ
6 遭遇型力触覚提示器
43,63 モータ
60 模擬体
601 弾性層
7 制御部
73 遭遇型力触覚提示器駆動制御部(制御部)
70 記憶部
10 Surgical training device 3 Practice instrument part 33, 34 Forceps 4 Imaging part 40 Practice camera 5 Monitor 6 Encounter type force tactile presenter 43, 63 Motor 60 Simulated body 601 Elastic layer 7 Control unit 73 Encounter type force tactile presenter Drive control Department (control unit)
70 Memory

Claims (8)

予め内視鏡カメラで撮影された、手術器具を用いて行われる生体への施術の教材映像に、練習用カメラで撮影中の練習映像をモニタ上で合成して表示し、前記教材映像中の手術器具の映像の動きに重なるように練習用の手術器具を操作する手術トレーニング装置において、
表面に弾性層を有する凹面を備えた模擬体と、前記模擬体を3次元空間内で移動させる駆動部とを有する、プロービングのための遭遇型力触覚提示器と、
前記教材映像中の前記プロービングによる生体面との接触位置に対応する3次元空間上の位置を空間座標位置とし、かつ前記接触位置における生体面の角度に対応する前記模擬体の凹面上の位置を表面座標位置とし、前記空間座標位置に前記表面座標位置を合わせるように前記模擬体を前記プロービングの映像の再生前に移動させる制御部とを備えた手術トレーニング装置。
The practice video taken by the practice camera is combined and displayed on the monitor with the teaching material video of the treatment performed on the living body using the surgical instrument, which was previously taken by the endoscopic camera, and displayed in the teaching material video. In a surgical training device that operates a surgical instrument for practice so as to overlap the movement of the image of the surgical instrument
An encounter-type force-tactile presenter for probing, which has a simulated body having a concave surface having an elastic layer on its surface, and a driving unit for moving the simulated body in a three-dimensional space.
The position on the three-dimensional space corresponding to the contact position with the biological surface by the probing in the teaching material image is set as the spatial coordinate position, and the position on the concave surface of the simulated body corresponding to the angle of the biological surface at the contact position is set. A surgical training device including a control unit that is set as a surface coordinate position and moves the simulated body before playing back the probing image so as to match the surface coordinate position with the spatial coordinate position.
前記模擬体は、前記凹面が所定の曲率を有する曲面である請求項1に記載の手術トレーニング装置。 The surgical training device according to claim 1, wherein the simulated body is a curved surface in which the concave surface has a predetermined curvature. 前記模擬体は、前記凹面が半楕円形状である請求項2に記載の手術トレーニング装置。 The surgical training device according to claim 2, wherein the simulated body has a semi-elliptical concave surface. 前記駆動部は、パラレルリンク機構である請求項1〜3のいずれかに記載の手術トレーニング装置。 The surgical training device according to any one of claims 1 to 3, wherein the drive unit is a parallel link mechanism. 前記駆動部は、プロービング期間中、前記模擬体を静止させる請求項1〜4のいずれかに記載の手術トレーニング装置。 The surgical training device according to any one of claims 1 to 4, wherein the driving unit is a stationary body during a probing period. 前記駆動部は、プロービング期間終了後、前記模擬体を3次元空間内で前記手術器具から離れた方向の退避位置に移動させる請求項1〜5のいずれかに記載の手術トレーニング装置。 The surgical training device according to any one of claims 1 to 5, wherein the driving unit moves the simulated body to a retracted position in a direction away from the surgical instrument in a three-dimensional space after the probing period ends. 前記模擬体は、表面が黒色である請求項1〜6いずれかに記載の手術トレーニング装置。 The surgical training device according to any one of claims 1 to 6, wherein the simulated body has a black surface. 前記練習用の手術器具と前記模擬体との接触を検知する接触検知部を備えた請求項1〜7のいずれかに記載の手術トレーニング装置。 The surgical training device according to any one of claims 1 to 7, further comprising a contact detection unit that detects contact between the surgical instrument for practice and the simulated body.
JP2019028064A 2019-02-20 2019-02-20 surgical training device Active JP7201998B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019028064A JP7201998B2 (en) 2019-02-20 2019-02-20 surgical training device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019028064A JP7201998B2 (en) 2019-02-20 2019-02-20 surgical training device

Publications (2)

Publication Number Publication Date
JP2020134710A true JP2020134710A (en) 2020-08-31
JP7201998B2 JP7201998B2 (en) 2023-01-11

Family

ID=72263054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019028064A Active JP7201998B2 (en) 2019-02-20 2019-02-20 surgical training device

Country Status (1)

Country Link
JP (1) JP7201998B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113838332A (en) * 2021-10-21 2021-12-24 温州职业技术学院 Operation training equipment based on virtual reality

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005077253A1 (en) * 2004-02-18 2005-08-25 Osaka University Endoscope system
JP2009236963A (en) * 2008-03-25 2009-10-15 Panasonic Electric Works Co Ltd Training device for endoscopic surgery, and skill evaluation method for endoscopic surgery
JP2014130184A (en) * 2012-12-28 2014-07-10 Mitsubishi Precision Co Ltd Forceps for surgery simulator
WO2015097825A1 (en) * 2013-12-26 2015-07-02 独立行政法人科学技術振興機構 Movement learning support device and movement learning support method
JP2016148765A (en) * 2015-02-12 2016-08-18 国立大学法人大阪大学 Surgery training device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005077253A1 (en) * 2004-02-18 2005-08-25 Osaka University Endoscope system
JP2009236963A (en) * 2008-03-25 2009-10-15 Panasonic Electric Works Co Ltd Training device for endoscopic surgery, and skill evaluation method for endoscopic surgery
JP2014130184A (en) * 2012-12-28 2014-07-10 Mitsubishi Precision Co Ltd Forceps for surgery simulator
WO2015097825A1 (en) * 2013-12-26 2015-07-02 独立行政法人科学技術振興機構 Movement learning support device and movement learning support method
JP2016148765A (en) * 2015-02-12 2016-08-18 国立大学法人大阪大学 Surgery training device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大鶴 佳秀: "力覚重畳呈示技術を用いた腹腔鏡手術用トレーニングシステム", ロボティクス・メカトロニクス 講演会2014 講演論文集, JPN6022048888, 24 May 2014 (2014-05-24), pages 2 - 07, ISSN: 0004925317 *
近藤 大祐: "視野共有による腹腔鏡下手術サポートシステムの提案", ロボティクスメカトロニクス講演会2016講演会論文集, JPN6022048889, 8 June 2016 (2016-06-08), pages 1 - 02, ISSN: 0004925318 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113838332A (en) * 2021-10-21 2021-12-24 温州职业技术学院 Operation training equipment based on virtual reality
CN113838332B (en) * 2021-10-21 2023-04-11 温州职业技术学院 Operation training equipment based on virtual reality

Also Published As

Publication number Publication date
JP7201998B2 (en) 2023-01-11

Similar Documents

Publication Publication Date Title
US11580882B2 (en) Virtual reality training, simulation, and collaboration in a robotic surgical system
US11013559B2 (en) Virtual reality laparoscopic tools
US11944401B2 (en) Emulation of robotic arms and control thereof in a virtual reality environment
CN108701429B (en) Method, system, and storage medium for training a user of a robotic surgical system
Pantelidis et al. Virtual and augmented reality in medical education
US20220101745A1 (en) Virtual reality system for simulating a robotic surgical environment
Coles et al. Integrating haptics with augmented reality in a femoral palpation and needle insertion training simulation
JP6659547B2 (en) Simulator system for medical procedure training
US9092996B2 (en) Microsurgery simulator
US20090263775A1 (en) Systems and Methods for Surgical Simulation and Training
US20100167248A1 (en) Tracking and training system for medical procedures
JP2019207401A (en) Augmented reality training system
Mathew et al. Role of immersive (XR) technologies in improving healthcare competencies: a review
JP6521511B2 (en) Surgical training device
JP4129527B2 (en) Virtual surgery simulation system
Riener et al. VR for medical training
Zinchenko et al. Virtual reality control of a robotic camera holder for minimally invasive surgery
US20230270502A1 (en) Mobile virtual reality system for surgical robotic systems
JP7201998B2 (en) surgical training device
Coles Investigating augmented reality visio-haptic techniques for medical training
John et al. An endoscope interface for immersive virtual reality
Wieben Virtual and augmented reality in medicine
KR102624918B1 (en) simulator and method for medical practice based on haptic for providing customized patient type
WO2018093816A1 (en) Devices and methods for interactive augmented reality
WO2024006348A1 (en) Systems and methods for clinical procedure training using mixed environment technology

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221216

R150 Certificate of patent or registration of utility model

Ref document number: 7201998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150