JP2016158911A - Surgical operation method using image display device, and device using in surgical operation - Google Patents

Surgical operation method using image display device, and device using in surgical operation Download PDF

Info

Publication number
JP2016158911A
JP2016158911A JP2015041029A JP2015041029A JP2016158911A JP 2016158911 A JP2016158911 A JP 2016158911A JP 2015041029 A JP2015041029 A JP 2015041029A JP 2015041029 A JP2015041029 A JP 2015041029A JP 2016158911 A JP2016158911 A JP 2016158911A
Authority
JP
Japan
Prior art keywords
image
patient
marker
affected area
marker group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015041029A
Other languages
Japanese (ja)
Other versions
JP2016158911A5 (en
Inventor
創 小谷
Hajime Kotani
創 小谷
元將 冨田
Motomasa Tomita
元將 冨田
西 健爾
Takechika Nishi
健爾 西
渡辺 英寿
Eiju Watanabe
英寿 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CRESCENT Inc
Jichi Medical University
Original Assignee
CRESCENT Inc
Jichi Medical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CRESCENT Inc, Jichi Medical University filed Critical CRESCENT Inc
Priority to JP2015041029A priority Critical patent/JP2016158911A/en
Publication of JP2016158911A publication Critical patent/JP2016158911A/en
Publication of JP2016158911A5 publication Critical patent/JP2016158911A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Microscoopes, Condenser (AREA)
  • Endoscopes (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a surgical operation system having an image processor capable of displaying a superimposition image of a patient image and necessary information in the whole surgical operations.SOLUTION: In the surgical operation system, a motion capture device having an imaging part for emitting infrared rays to prescribed positions of an operation room and receiving reflected light from marker groups arranged in prescribed intervals is arranged at least three places, and an image display device for displaying an affected part of a patient undergoing a surgery by superimposing an image obtained by a CT, an MRI, or the like on the affected part is used. The surgical operation system includes an image display device for accurately changing coordinate positions of the marker groups measured by the motion capture devices and the image displayed on the affected part of the patient by superimposing the image on the affected part in accordance with rotation amounts of the marker groups.SELECTED DRAWING: Figure 30

Description

本発明は、手術を受ける患者の患部にCTやMRI等より得られた画像を重畳表示する画像表示装置を使った外科手術方法及び、その外科手術に用いる装置に関する。   The present invention relates to a surgical operation method using an image display device that superimposes and displays an image obtained by CT, MRI or the like on an affected part of a patient undergoing surgery, and an apparatus used for the surgical operation.

光学式モーションキャプチャシステムの原理は、1980年にRashidらによって提案された。このシステムは、体の各部位にマーカーを取り付け、その位置を複数のカメラで撮影し、ステレオ(三角法)の原理で3次元位置を推定するものであり、現在の光学式モーションキャプチャシステムも、基本的に同様の手法を使っている。   The principle of the optical motion capture system was proposed by Rashid et al. In 1980. This system attaches a marker to each part of the body, shoots the position with multiple cameras, estimates the 3D position by the principle of stereo (trigonometry), the current optical motion capture system, Basically the same method is used.

現在市販されている主な商用モーションキャプチャシステムでは、複数の赤外線カメラおよび赤外線投光器を用い、人(アクター)は反射素材でできたマーカーを体に取り付ける。赤外線カメラには、赤外線投光器の光を反射したマーカーの像が投影される。各カメラで得られたマーカーの投影画像をカメラ間で対応付けし、ステレオ法によりマーカー個々の3次元位置を求める。得られたマーカー群から、あらかじめ定義した人体の多関節モデルにマッピング(インバースキネマティクス)することで、人の位置、関節角度などを求めることができる。   The main commercial motion capture systems currently on the market use multiple infrared cameras and infrared projectors, and people (actors) attach markers made of reflective material to their bodies. On the infrared camera, an image of the marker reflecting the light of the infrared projector is projected. The projected images of the markers obtained by each camera are associated between the cameras, and the three-dimensional position of each marker is obtained by the stereo method. By mapping (inverse kinematics) from the obtained marker group to a pre-defined multi-joint model of the human body, the position, joint angle, etc. of the person can be obtained.

本手法の長所としては、第1にマーカー自体が小型・軽量でありワイヤーなどの接続物がないため、アクターの動きが比較的自由である、第2にカメラのシャッタスピードを変化させて、高い周波数で計測を行うことができる、第3に位置の検出精度が高い、等があげられ、一般的に広く用いられている。   The advantages of this method are that, firstly, the marker itself is small and light, and there is no connection object such as a wire, so the movement of the actor is relatively free. Second, it is high by changing the shutter speed of the camera. It is possible to perform measurement at a frequency, and thirdly, the position detection accuracy is high.

用途としては、パソコンゲームや特撮映画の3Dのアバタ−の作成、3D−CADにて設計した製品を大画面のテレビやプロジェクター、特許文献1に示されている様なヘッドマウントディスプレイ(HMD)を用いて実物大の画像として検証・評価する試作レスシステム等がある。更に、特許文献2に示す様なスポーツ分野の身体能力測定及び、特許文献3に示す様な医学分野の患者に対するリハビリ支援用計測等に用いられている。   Applications include the creation of 3D avatars for PC games and special effects movies, 3D-CAD-designed products for large-screen TVs and projectors, and a head-mounted display (HMD) as shown in Patent Document 1. There are prototype-less systems that can be used for verification and evaluation as full-scale images. Furthermore, it is used for physical ability measurement in the sports field as shown in Patent Document 2, and rehabilitation support measurement for patients in the medical field as shown in Patent Document 3.

上記の様な開発・研究分野における検証用若しくは、修正が可能な3Dデータ作成にはモーションキャプチャー技術が多く用いられているが、失敗が許されない現場ではあまり採用されていない。この最も端的な分野が医療の中でも手術である。   Motion capture technology is often used for 3D data creation that can be verified or modified in the development / research fields as described above, but is not so often used in the field where failure is not allowed. This most extreme field is surgery among medical treatments.

オリエンテーション(患部の場所を探し出す事)が簡単な手術ならば裸眼(若しくはルーペ)で行われ、モーションキャプチャー技術は不要である。しかし、手術対象が体の深部になり、オリエンテーションの難易度が上がるにつれて、CTやMRIのデータ等に基づき詳細な手術計画を立てる事が多くなる。   If the orientation (finding the affected area) is a simple operation, it is performed with the naked eye (or loupe), and motion capture technology is unnecessary. However, as the surgical object becomes deeper in the body and the difficulty of orientation increases, a detailed surgical plan is often made based on CT and MRI data.

この様な外科手術の場合は、以下の手順で行われる。
(1)患者の患部のCTやMRIを撮影し、これらの画像に基づき、患者に最善の結果をもたらすと考えられる手術計画を作成する。
(2)手術計画により決められた場所を切開する(内視鏡の場合は内視鏡挿入部及びロボットハンドの挿入部分)、
(3)広い視野で行う作業として、患部に到達する前の骨や臓器に処置を施して患部を露出させる(内視鏡の場合は、ガスを入れて内部を膨らませ、それぞれの挿入部分を動かしやすい様に処置し、挿入部の手術用機器の先端(作用部)を患部に位置合わせ(アライメント)する)。
(4)患部を裸眼で見るのではなく、立体視が可能なガリレオ式双眼ルーペ(拡大倍率1.5〜3)やケプラー式双眼ルーペ(拡大倍率4〜6)を図31(b)の様にメガネ型固定部112に取り付けて使用する。より細かい処置では図31(c)の手術用顕微鏡38(拡大倍率は変倍で3〜18)を用いて患部を拡大し、手術用顕微鏡38の接眼部より立体視する事で処置を行う。
In the case of such a surgical operation, the procedure is as follows.
(1) CT and MRI of the affected area of the patient are imaged, and an operation plan that is considered to bring the best results to the patient is created based on these images.
(2) An incision is made at a place determined by the surgical plan (in the case of an endoscope, an endoscope insertion portion and a robot hand insertion portion),
(3) As a work to be performed with a wide field of view, treatment is performed on bones and organs before reaching the affected area to expose the affected area (in the case of an endoscope, gas is inflated to expand the inside, and each insertion part is moved. Treat it so that it is easy, and align (align) the tip (operating part) of the surgical instrument in the insertion part with the affected part.
(4) A Galileo binocular loupe (magnification 1.5 to 3) or Kepler binocular loupe (magnification 4 to 6) that allows stereoscopic viewing instead of viewing the affected area with the naked eye as shown in FIG. And attached to the glasses-type fixing part 112 for use. For a finer procedure, the affected part is enlarged using the surgical microscope 38 (magnification is 3 to 18) in FIG. 31 (c), and treatment is performed by stereoscopic viewing from the eyepiece part of the surgical microscope 38. .

また、手術の途中でも図31(a)のPCモニター111上で、図33(a)の様なCTやMRI等のデータを確認しつつ処置が行われる事が多くなる。更に、この様な高度な手術になると、患者の患部と手術器具の3次元的位置をリアルタイムに計測し、これを術前に撮影したCTやMRIの画像の上に重畳表示させ、安全性・確実性を確保したいという要求が高くなっている。特に、脳神経外科や、頭頸部外科、整形外科領域でその様な試みが始まっており、その実現には、前記モーションキャプチャー技術の導入が必要となってくる。   In addition, treatment is often performed while confirming data such as CT and MRI as shown in FIG. 33A on the PC monitor 111 in FIG. 31A even during the operation. Furthermore, in such advanced surgery, the three-dimensional position of the affected part of the patient and the surgical instrument is measured in real time, and this is superimposed on the CT and MRI images taken before the operation. There is an increasing demand for ensuring certainty. In particular, such trials have begun in the fields of neurosurgery, head and neck surgery, and orthopedic surgery, and the implementation of the motion capture technology will be necessary to realize this.

しかしながら、前述の様に、高度な手術には立体的に患部を拡大して見る手段が必要であり、これとCTやMRIの画像を重畳表示する事は容易ではない。この問題を解決する手段として、特許文献4に記載されている様に、ヘッドマウントディスプレイを使い、患部も画像として取り込み、CTやMRIの撮影画像と画像同士で重畳して目の前に表示する方法が考案されている。   However, as described above, advanced surgery requires a means for viewing the affected area in a three-dimensional manner, and it is not easy to superimpose and display this and CT or MRI images. As a means for solving this problem, as described in Patent Document 4, a head-mounted display is used, the affected part is also captured as an image, and the captured images of CT and MRI are superimposed on each other and displayed in front of the eyes. A method has been devised.

この分野にマーカーを用いるモーションキャプチャー技術を用いる場合、CTやMRIの撮影画像上にマーカーの位置を表示する為には、予めCTやMRIの撮影時にマーカーを装着して撮影する必要があり、手術時には撮影時と同一位置にマーカーを再装着し、3次元的位置をリアルタイムに計測する必要がある。しかし、その作業は手間がかかるので、CTやMRIにより撮られた撮影画像に対し、画像データとしてマーカーを患者の特徴点に設置し、術前に患者と画像位置のイニシャライズ登録作業(レジストレーション)を行う場合もある。   When motion capture technology using markers is used in this field, in order to display the position of the marker on a CT or MRI image, it is necessary to perform imaging with a marker in advance during CT or MRI imaging. Sometimes it is necessary to reattach the marker at the same position as when shooting and measure the 3D position in real time. However, since the work is time-consuming, markers are set as image data on the patient's feature points for the images taken by CT or MRI, and the registration of registration of the patient and the image position before the operation (registration) May be performed.

図31(a)及び図32(a)〜(c)ではその具体的方法を示している。図31(a)において、3次元計測装置107は射出したレーザ光を患者100の頭部に固定されたマーカー群105に照射、マーカー群105からの反射光位置変位量を計測する事で、マーカー群105のワールド座標位置を正確に計測できるシステムである。また、患者100の頭部を上から撮像する手術記録用ビデオカメラ110が設置され、その画像はPCモニター111上に表示されている。尚、マーカー群とは、所定の配置で複数のマーカーを配置し、その形状を登録する為に使われる複数のマーカーの集まりと定義している。   FIG. 31 (a) and FIGS. 32 (a) to (c) show specific methods. In FIG. 31A, the three-dimensional measuring device 107 irradiates the emitted laser light to the marker group 105 fixed to the head of the patient 100, and measures the reflected light position displacement amount from the marker group 105, whereby the marker This is a system that can accurately measure the world coordinate position of the group 105. In addition, a surgical recording video camera 110 for imaging the head of the patient 100 from above is installed, and the image is displayed on the PC monitor 111. The marker group is defined as a group of a plurality of markers used for arranging a plurality of markers in a predetermined arrangement and registering their shapes.

図32(a)はその患者100の頭部に手術を行う時の状態を示している。患者100の頭部の手術では切開後、患部に到達する為、頭蓋骨と筋肉の剥離や頭蓋骨に穴を開ける作業が必要であり、かなりの力が患者にかかる。その為、患者100の頭部を3点固定具104により術台109に対し強固に固定する。一方、術前には患部の状況を確認する為、図32(c)に示す様なMRI画像101が取られる。MRI113は人体を輪切り状にしてその内部映像を画像データとして記憶している。よって、人体の表面情報は外周の画像を組み合わせる画像処理を行なう事で、図32(b)の様な3次元の人体の表面3D画像102を得る事ができる。   FIG. 32A shows a state when performing surgery on the head of the patient 100. In the operation of the head of the patient 100, the incision is reached after the incision. Therefore, it is necessary to detach the skull and muscles or to make a hole in the skull, and a considerable force is applied to the patient. Therefore, the head of the patient 100 is firmly fixed to the operating table 109 by the three-point fixture 104. On the other hand, before the operation, an MRI image 101 as shown in FIG. The MRI 113 stores the internal video as image data with the human body in a circular shape. Therefore, the surface information of the human body can be obtained by performing image processing that combines the images of the outer periphery, thereby obtaining a three-dimensional surface 3D image 102 of the human body as shown in FIG.

この時点では図32(a)の術中の患者100の頭部とMRI画像で作られた図32(b)表面3D画像102は関連性が無い。この2つを重畳表示するには、まず、事前準備として、図32(b)の表面3D画像102上に仮想マーカー103を設置する。この仮想マーカー103の設置場所は、キャリブレーター106を用い、図32(a)の患者100の頭部の特徴点108を順次指定していくので、特徴のある耳たぶや鼻根部等が選択される。   At this time, the head of the patient 100 during the operation in FIG. 32A and the surface 3D image 102 in FIG. 32B created by the MRI image are not related. In order to superimpose and display the two, first, the virtual marker 103 is set on the surface 3D image 102 of FIG. Since the virtual marker 103 is installed by sequentially specifying the feature points 108 of the head of the patient 100 in FIG. 32A using the calibrator 106, a characteristic earlobe or nasal root is selected.

キャリブレーター106であるが、尖った触手を行う先端部分aとマーカー群部分bで構成されており、その相対位置関係は予め計測されている。患者100の頭部は3点固定具104により強固に固定されているので、3点固定具104に設置されたマーカー群105とは所定の位置関係にある想定である。   Although it is the calibrator 106, it is comprised by the front-end | tip part a and the marker group part b which perform a pointed tentacle, The relative positional relationship is measured beforehand. Since the head of the patient 100 is firmly fixed by the three-point fixture 104, it is assumed that the patient group 100 has a predetermined positional relationship with the marker group 105 installed on the three-point fixture 104.

図32(a)に示す様に、キャリブレーター106の先端部分で患者100の頭部の特徴点108を順次タッチし、その時のマーカー群部分bのワールド座標位置(ワールド座標位置とは、モーションキャプチャー装置により定められた、その計測可能領域内での絶対座標系を指す)を順次記憶していく。マーカー群105とマーカー群部分bのワールド座標位置は3次元計測装置107で計測されているので、キャリブレーター106のローカル座標(ローカス座標とは、所定の2箇所の相対座標を指す。一方のワールド座標が決まっていれば、ローカル座標を差し引く事で、もう一方のワールド座標位置も決定できる)をそれぞれのワールド座標位置から差し引く事で、特徴点108のワールド座標位置が確定する。   As shown in FIG. 32 (a), the feature point 108 of the head of the patient 100 is sequentially touched with the tip of the calibrator 106, and the world coordinate position of the marker group part b at that time (the world coordinate position is a motion capture device). (Which indicates the absolute coordinate system within the measurable area) determined by (1). Since the world coordinate positions of the marker group 105 and the marker group part b are measured by the three-dimensional measuring device 107, local coordinates of the calibrator 106 (locus coordinates indicate relative coordinates at two predetermined locations. One world coordinate Is subtracted from each world coordinate position, the world coordinate position of the feature point 108 is determined.

特徴点108は、それぞれ仮想マーカー群102に対応しているので、図33(b)に示した実際の患者の患部にキャリブレーター106の先端部分bで接触すると、図33(a)に示したMRIの出力画像上に、その位置が白い丸印として表示される。この様に、異なる座標軸を持つものに対し、座標軸の変換パラメータを決定し、両方の画像を合成した際に、重畳表示できる様にする作業がイニシャライズ登録作業(レジストレーション)である。   Since the feature points 108 respectively correspond to the virtual marker group 102, when the affected part of the actual patient shown in FIG. 33 (b) is brought into contact with the tip portion b of the calibrator 106, the MRI shown in FIG. 33 (a). The position is displayed as a white circle on the output image. In this way, initialization registration work (registration) is a process for determining the coordinate axis conversion parameters for those having different coordinate axes so that they can be superimposed and displayed when both images are combined.

しかし、患者100の頭部の位置を動かす際にも、正確なトラッキング(ここでは、マーカーを付けた物体の動きに応じてそれぞれの画像が重畳表示される様に追尾制御する事を指している)を行うには、マーカー固定方法、固定位置の再現性の問題などに加えて、上記の様に、患者と画像位置のイニシャライズ登録作業(レジストレーション)には、煩雑な調整作業を要し、実際のトラッキング精度はセンサー自体の精度に依存する上に、拡大画像上で処置を行う場合のトラッキング精度は、患部画像の拡大率に比例して高精度が要求される事になる。   However, when moving the position of the head of the patient 100, accurate tracking (here, tracking control is performed so that each image is superimposed and displayed according to the movement of the object with the marker attached thereto). In addition to the marker fixing method and the problem of reproducibility of the fixed position, as described above, initialization registration work (registration) of the patient and the image position requires complicated adjustment work. The actual tracking accuracy depends on the accuracy of the sensor itself, and the tracking accuracy when performing treatment on the enlarged image requires high accuracy in proportion to the enlargement rate of the affected area image.

まだ問題点は多いが、その他にも、各手術の段階においても、患部の上にCTやMRIの画像を重畳表示できると以下の様な利点があるので、手術に対する重畳表示への期待は大きい。重畳表示により以下の様な術中の作業にもメリットが発生すると考えられる。   There are still many problems, but in addition, there are the following advantages if CT and MRI images can be superimposed and displayed on the affected part at each stage of surgery. . It is thought that the merits also occur in the following intraoperative work by the superimposed display.

従来の技術に記載した(2)の段階では、切開する場所を実際に患者の皮膚上に書くが、その目印を画像として患者の上に重畳表示できれば、書く作業が不要となる。   In the stage (2) described in the prior art, the location of the incision is actually written on the patient's skin. However, if the mark can be superimposed and displayed on the patient as an image, the writing operation becomes unnecessary.

従来の技術に記載した(3)の段階では、内視鏡を使う場合は、内視鏡の視界が狭いので、その先端を患部にアライメントする作業が必要となる。内視鏡を自由に動かし、患部にアクセスする為には、ガスを注入し、患部と皮膚間に空洞を作る必要がある。この際、臓器は空洞内を移動する為に、CTやMRIで取り込んだ臓器の位置が実際の術中の位置と異なってしまう場合が多く、その位置を特定するのに時間がかかってしまう。この先端部と移動した患部の位置を画像で患者の上に重畳表示できる方法があれば、アライメント作業が大幅に短縮される。   In the stage (3) described in the prior art, when an endoscope is used, the field of view of the endoscope is narrow, and therefore an operation of aligning the distal end with the affected part is required. In order to move the endoscope freely and access the affected area, it is necessary to inject gas and create a cavity between the affected area and the skin. At this time, since the organ moves in the cavity, the position of the organ taken in by CT or MRI often differs from the actual intraoperative position, and it takes time to specify the position. If there is a method that can superimpose and display the position of the tip and the affected part on the patient as an image, the alignment work is greatly shortened.

従来の技術に記載した(4)の段階では(1)で撮ったCTやMRIの画像を必要に応じて患部に正確に重畳表示できれば良いが、実際は図34の様に、感染症を防ぐ為、患部以外は患者を無菌カバー31で覆い、透明シート(酸素や水蒸気の透過性に優れ、水・バクテリア・ウイルスを通さず外部からの汚染を防ぐフィルムロール。褥瘡を引き起こす摩擦対策として皮膚を被覆、無菌操作を必要としない等の効果がある)32で患部が覆われる。術中に3点固定具104に固定されたマーカー105は透明ドレープ越しに観察できるが、頭の仮想マーカー群102に対応した特徴点108が見えなくなるので、再レジストレーションができなくなってしまう。術中は色々な処置が行われるので、3点固定具104に対し、患者の位置が変わってしまう事が時に起こるので、この場合、重畳表示画像がずれてしまって使い物にならなくなる。術中にも重畳表示画像のレジストレーションが行えれば、手術の誘導が続けられる(ナビゲーション)。   In the stage of (4) described in the prior art, it is sufficient if the CT or MRI image taken in (1) can be accurately superimposed and displayed on the affected part as necessary. However, in order to prevent infection as shown in FIG. Cover the patient with a sterile cover 31 except for the affected area, and a transparent sheet (film roll with excellent oxygen and water vapor permeability, which prevents water, bacteria and viruses from passing through and prevents contamination from the outside. Covers the skin as a frictional measure that causes pressure ulcers. The affected part is covered with 32). The marker 105 fixed to the three-point fixing tool 104 during the operation can be observed through the transparent drape, but the feature point 108 corresponding to the virtual marker group 102 on the head cannot be seen, so that re-registration cannot be performed. Since various treatments are performed during the operation, the position of the patient sometimes changes with respect to the three-point fixing device 104. In this case, the superimposed display image is shifted and cannot be used. If the superimposed display image can be registered even during the operation, the operation can be guided (navigation).

また、高度な手術では二人観察用の手術用顕微鏡38を用いる。その為、二人が同時に患部の立体像を見る事ができ、更には重畳表示画像を同時に見る事が望ましいが、その機構は構造が複雑になってしまう。特許文献5にはその複雑な機構を改善する提案がなされているが、PCモニター111を3Dで見る技術自体は実際の見えと整合するものが無く、更には、顕微鏡38により見る角度や位置を変えた場合、精度よく重畳表示ができる簡単な方法がなかった。   In advanced surgery, a surgical microscope 38 for two-person observation is used. For this reason, it is desirable for two people to see a three-dimensional image of the affected part at the same time, and it is desirable to see the superimposed display image at the same time, but the mechanism is complicated in structure. Patent Document 5 proposes to improve the complicated mechanism, but the technology for viewing the PC monitor 111 in 3D itself is not consistent with the actual appearance. When changed, there was no simple method that could perform overlay display with high accuracy.

特開2013−218535号公報JP 2013-218535 A 特開2013−192591号公報JP2013-192591A 国際公開第2005/096939号International Publication No. 2005/096939 特許第5390377号公報Japanese Patent No. 5390377 特開2006−218206号公報JP 2006-218206 A

この様に、これら全ての手術過程において、必要な重畳画像の表示を精度良く効率的に行える様な手術システムやそのシステムを構成する装置の提案はあまり多くない。   As described above, there are not so many proposals for a surgical system and an apparatus constituting the system capable of accurately and efficiently displaying a necessary superimposed image in all of these surgical processes.

本発明は上記問題に鑑みてなされたものであり、手術時に手術の操作をしている患者と手術器具の3次元的位置をリアルタイムに計測し、この結果に基づき術前に撮影したCTやMRIの画像を患部の上に重畳表示させる事を容易に行えるだけでなく、全ての外科手術の段階において、患者若しくは患者の画像と、必要な情報の重畳表示ができる画像処理装置を有する外科手術システムを提供する事を目的とする。   The present invention has been made in view of the above problems, and measures the three-dimensional positions of a surgical instrument and a patient who is operating at the time of surgery in real time, and CT or MRI taken before surgery based on this result. Surgical system having an image processing apparatus that can easily superimpose and display the image of the patient on the affected area, and can superimpose and display the patient or patient image and necessary information at all surgical stages. The purpose is to provide.

上記問題点を解決するための第1の形態では、手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を少なくとも3カ所に配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及び回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、前記画像表示装置は前記患部の画像を撮るカメラ部及び、前記患部の深度を計測するディプスカメラ部、更には前記第1マーカー群を有する事を特徴としている。   In a first embodiment for solving the above-described problem, a motion capture device having an imaging unit that emits infrared rays to a predetermined position in an operating room and receives reflected light from a marker group arranged at a predetermined interval. According to the coordinate position and rotation amount of the marker group measured by the motion capture device, the image display device is arranged at least in three places and has an image display device that superimposes and displays a predetermined first image on the affected part of the patient undergoing surgery. In a surgical operation system having an image display device that changes a superimposed display image with an affected part of a patient, the image display device includes a camera part that takes an image of the affected part, a depth camera part that measures the depth of the affected part, and further It is characterized by having one marker group.

モーションキャプチャー用センサー部1は最低2個あれば良いが、術中は第1執刀医及び第2執刀医、更にはサポートを行う看護師も患者100の周りにいるので、センサー部1のいずれかの光路を遮蔽する位置に立つ場合も多い。この様な複数箇所に分かれたステレオ画像処理法による位置計測は、少なくともいずれか3つのモーションキャプチャー用センサー部1の光路が遮蔽されなければ正確にその位置座標を測定する事が可能なので、従来の様な計測位置が制限される3次元計測装置107を使う方法と比べて術中の制約が少なくなり、3次元計測装置107の置き場所等のスペース確保も不要となる。   There should be at least two sensor units 1 for motion capture. During the operation, the first surgeon and the second surgeon, and also the supporting nurse are around the patient 100. In many cases, it stands at a position that blocks the optical path. Position measurement by such a stereo image processing method divided into a plurality of locations can accurately measure the position coordinates unless the optical paths of at least any three motion capture sensor units 1 are shielded. Compared with the method using the three-dimensional measuring device 107 in which the measurement position is limited, the intraoperative restriction is reduced, and it is not necessary to secure a space for placing the three-dimensional measuring device 107 or the like.

更に図2に示す様に、通常市販されているタブレット4には内蔵のカメラがあり、そのタブレット4の内蔵カメラで患者100の頭部を撮ると、画面に患者100の頭部画像が表示される。一方、MRIは人体を輪切り状にしてその内部映像を画像データとして記憶している。よって、人体の表面情報は外周の画像を点群データとし、それをポリゴンデータ9に変換処理する事ができる。従来技術と同様に、レジストレーション測定を行う事で、タブレット4の画面上で患者100の頭部画像とMRIのポリゴンデータによる重畳表示画像5を観察する事ができる様になる。   Further, as shown in FIG. 2, the tablet 4 that is usually marketed has a built-in camera, and when the head of the patient 100 is taken with the built-in camera of the tablet 4, the head image of the patient 100 is displayed on the screen. The On the other hand, the MRI stores the internal video as image data with the human body cut into a circle. Therefore, the surface information of the human body can be converted into polygon data 9 by using the outer peripheral image as point cloud data. Similar to the prior art, by performing registration measurement, the head image of the patient 100 and the superimposed display image 5 based on MRI polygon data can be observed on the screen of the tablet 4.

PCモニター111上に重畳表示画像5を出す事も可能だが、タブレット4を用いる事で、術中の視線で直接確認する事が可能なので、標的の腫瘍や保護が必要な静動脈や神経の位置の把握が容易となる効果がある。更には、このタブレット4を固定する工具や看護師により保持した状態では、患部への術作業を行いつつ静動脈や神経の位置が把握できるので、手術の効率及び、安全性を高める事が可能となる。   It is possible to display the superimposed display image 5 on the PC monitor 111. However, since the tablet 4 can be used for direct confirmation with the line of sight during the operation, the target tumor or the position of the artery or nerve where protection is required There is an effect that it is easy to grasp. Furthermore, when the tablet 4 is held by a tool or a nurse, the position of the arteries and nerves can be grasped while performing the operation on the affected area, so that the efficiency and safety of the operation can be improved. It becomes.

また、図4ではこの内蔵カメラの代わりに、タブレット4に取り付けたディプスカメラ6を使う場合の実際の作業風景を示している。ディプスカメラ6は最も簡単で性能が良い方法としてTime of Flightが提案されている。これは図3に示す様に、LED照明7を所定のsinカーブで点滅させ、対象物からの反射光の位相遅れDを検出する事で、対象物までの距離を計測する方法である。即ち、対物レンズ付の2次元受光素子8を有するディプスカメラ6の場合、素子毎に位相遅れを検出する事が可能であり、対象物の表面までの距離は素子の分割数の細かさで検出できる。元々、ディプスカメラ6自体のレンズ付の2次元受光素子8は上下左右の位置情報は持っているので、更にその奥行情報をTime of Flight計測で撮る事で、3次元の対象物100の表面情報を得る事ができる。   Further, FIG. 4 shows an actual working scene in the case where a depth camera 6 attached to the tablet 4 is used instead of the built-in camera. Time of Flight has been proposed as the simplest and best performance method for the depth camera 6. As shown in FIG. 3, this is a method of measuring the distance to the object by blinking the LED illumination 7 with a predetermined sin curve and detecting the phase delay D of the reflected light from the object. That is, in the case of the depth camera 6 having the two-dimensional light receiving element 8 with the objective lens, it is possible to detect the phase delay for each element, and the distance to the surface of the object is detected by the fineness of the number of divided elements. it can. Originally, the two-dimensional light receiving element 8 with the lens of the depth camera 6 itself has the position information of the top, bottom, left and right, and further, by taking the depth information by Time of Flight measurement, the surface information of the three-dimensional object 100 is obtained. Can be obtained.

ディプスカメラ6についてもう少し詳しく説明すると、光速は30万km/secなので、例えばLED変調周波数を20MHzとすると、光変調波長は15mとなる。ディプスカメラのCCD受光部のノイズ量にも依るが、一般の位相検出では波長の256〜1024分割が精度と考えられるので、ディプスカメラのZ方向の計測精度は、15〜60mmZ程度である。但し、最近では、PCのクロック周波数はCMOS対応で250MHzのものが販売されており、このクロックでLEDの変調ができ、CMOSのサンプリング周波数もこれで対応可能ならば、位相検出に必用な4分割を考えると約60MHzで1回1ドットの位相検出ができる事になる。光変調波長は5mとなり、波長が短い程、位相検出の精度を上げる事ができる。本発明ではレジストレーションに関しては時間をある程度かけても良いので、Z方向の計測も高精度が期待できる。   The depth camera 6 will be described in more detail. Since the speed of light is 300,000 km / sec, for example, if the LED modulation frequency is 20 MHz, the light modulation wavelength is 15 m. Although it depends on the amount of noise in the CCD light receiving unit of the depth camera, the accuracy of measuring the wavelength in the range 256 to 1024 is considered to be accurate in general phase detection, so the measurement accuracy in the Z direction of the depth camera is about 15 to 60 mmZ. However, recently, a PC clock frequency of 250 MHz is available for CMOS, and if this clock can be used to modulate the LED and this also supports the CMOS sampling frequency, it can be divided into 4 parts necessary for phase detection. Therefore, one dot phase can be detected once at about 60 MHz. The light modulation wavelength is 5 m, and the shorter the wavelength, the higher the accuracy of phase detection. In the present invention, since a certain amount of time may be required for registration, high accuracy can be expected in measurement in the Z direction.

図32(a)〜(c)に示した様に、従来の技術では有限の仮想マーカー102を患者100の頭部の特徴点108と目測で一致させる為、重畳表示の精度が大きく劣化する。しかし、ディプスカメラ6を用いた3次元の人体の表面情報は、その計測方向から見て、図5の11に示す様な点群データとして計測され、距離が異なる周辺画像とは完全に分別した点群データとなる。一方、MRIで求められた3次元の人体の表面情報は、3次元表示を行う場合、ポリゴンデータ9の様に変換処理されているが、MRI自体のデータとしては、点群データ10の様な画像の積層で構成されている。よって、そのパターンマッチングを行う際にも、特徴点の抽出や外観の縦や横の長さを比較する方法を用いる際、周辺画像とは完全に分別した点群データである上に、多くの点を用いる事から、精度の高い座標位置と高い平均化効果により高精度のレジストレーションが可能となる。   As shown in FIGS. 32A to 32C, in the conventional technique, the finite virtual marker 102 is matched with the feature point 108 of the head of the patient 100 by eye measurement, so that the accuracy of the superimposed display is greatly deteriorated. However, the surface information of the three-dimensional human body using the depth camera 6 is measured as point cloud data as shown by 11 in FIG. 5 when viewed from the measurement direction, and is completely separated from surrounding images having different distances. It becomes point cloud data. On the other hand, the surface information of the three-dimensional human body obtained by MRI is converted like polygon data 9 when three-dimensional display is performed, but the data of MRI itself is like point cloud data 10. It consists of a stack of images. Therefore, when performing pattern matching, when using the method of extracting feature points and comparing the vertical and horizontal lengths of appearance, it is point cloud data that is completely separated from the surrounding image, and many Since points are used, highly accurate registration is possible due to highly accurate coordinate positions and a high averaging effect.

第2の形態では、手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及び回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、先端部が凹レンズで構成されている第1内視鏡に第1マーカー群を有し、前記第1内視鏡で撮られた臓器全体の画像より、患部を特定するステップと、患者の患部の拡大画像を表示する為の第2内視鏡若しくは手術用器具は、第2マーカー群を有し、前記第2内視鏡若しくは手術用器具の挿入方向若しくは先端部の位置と前記特定された患部の位置との相対位置の状態を表示する事を特徴としている。   In the second embodiment, a motion capture device having an imaging unit that emits infrared light to a predetermined position in an operating room and receives reflected light from a marker group arranged at a predetermined interval is arranged to An image display that includes an image display device that superimposes and displays a predetermined first image on the affected area, and changes the affected area of the patient and the superimposed display image according to the coordinate position and rotation amount of the marker group measured by the motion capture device In a surgical operation system having an apparatus, a first endoscope having a concave portion at a distal end portion has a first marker group, and an affected part is identified from an image of an entire organ taken by the first endoscope. And the second endoscope or surgical instrument for displaying an enlarged image of the affected area of the patient has a second marker group, and the insertion direction of the second endoscope or surgical instrument is It is characterized in that displays the status of the relative positions of the position of the distal end portion and a position of the identified affected area.

本発明である広角腹腔鏡12は図8(a)に示す様に、先端の受光部に凹レンズ12bを採用する事で、図6の様に切開した穴の位置から広い視野を観察する事が可能な装置である。また、図6に示す様に、挿入する細い部分が、腹腔鏡13の部分と比べてもトロッカー15の先端からぎりぎり先端部が出る程度に短い。よって、差し込んだ状態で安定する構造であり、広い視野を映し出すのに適している事が判る。図7(b)はその広い視野で患部を見ながら、他の手術器具が挿入されている様子を示している。迷うこと無く、短時間で腹腔鏡13及び、鉗子14の先端を患部まで挿入できている。この状態で全ての手術器具を挿入し、アライメントした時点で、腹腔鏡13の映像にモニター図7(a)に切り替えるので、どの様に臓器の位置が変わっても、アライメント作業を短縮し、スムーズに術作業を行う事ができる。   As shown in FIG. 8A, the wide-angle laparoscope 12 according to the present invention employs a concave lens 12b in the light receiving portion at the tip, so that a wide visual field can be observed from the position of the incised hole as shown in FIG. It is a possible device. Further, as shown in FIG. 6, the thin portion to be inserted is shorter than the portion of the laparoscope 13 to the extent that the tip portion of the trocar 15 protrudes from the tip. Therefore, it can be seen that the structure is stable when inserted, and is suitable for projecting a wide field of view. FIG. 7B shows a state in which another surgical instrument is inserted while viewing the affected part with the wide visual field. Without getting lost, the tips of the laparoscope 13 and forceps 14 can be inserted to the affected area in a short time. In this state, when all the surgical instruments are inserted and aligned, the monitor image is switched to the image of the laparoscope 13 as shown in FIG. 7A, so that the alignment operation is shortened and smooth regardless of the organ position. It is possible to perform a surgical operation.

第3の形態では、手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を少なくとも3カ所に配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及び回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、患者の患部に術を施す医療装置には脱着可能な第1マーカー群を有し、前記医療装置の作用部及びそれ以外の少なくとも2点で支持できるキャリブレーション装置は、第2マーカー群を有し、前記医療装置の先端部(作用部)と接触する部分と、第2マーカー群の相対座標位置を予め記憶すると共に、前記キャリブレーション装置上に前記医療装置が置かれた時の第1マーカー群と第2マーカー群の位置座標を前記モーションキャプチャー装置で計測し、記憶する事を特徴としている。   In the third embodiment, at least three motion capture devices having imaging units that emit infrared rays at predetermined positions in the operating room and receive reflected light from marker groups arranged at predetermined intervals are arranged, and surgery is performed. An image display device that superimposes and displays a predetermined first image on the affected area of the patient who receives the image, and displays the superimposed image on the affected area of the patient according to the coordinate position and rotation amount of the marker group measured by the motion capture device. In a surgical operation system having an image display device to be changed, a medical device that performs an operation on an affected part of a patient has a first marker group that can be attached and detached, and can be supported by the action part of the medical device and at least two other points. The calibration device has a second marker group, and the relative coordinate position of the second marker group and the portion that comes into contact with the distal end portion (action portion) of the medical device are determined in advance. While 憶, wherein measuring the position coordinates of the first marker group and the second group of markers when the calibration device on the medical device is placed in the motion capture apparatus is characterized in that storing.

キャリブレーター106と同様に、尖った触手を行う先端部分aを手術器具の先端(作用部)として、マーカー群部分bを設置し、その間隔をローカル座標として予め計測しておけば、モーションキャプチャー用センサー部1でそのマーカー群の位置座標を調べる事で、手術器具の先端(作用部)のワールド座標位置を特定する事ができる。しかし、これらの手術器具は常に殺菌消毒され、繰り返し使われるものである。一方、マーカー群は構造がいびつで、マーカー部は汚れが取り難い為、手術器具に取り付けた場合は、使い捨てとするか、取り外して別に洗浄殺菌する可能性が高い。   Similar to the calibrator 106, if the tip portion a for performing a pointed tentacle is used as the tip (operating portion) of the surgical instrument and the marker group portion b is set and the interval thereof is measured in advance as local coordinates, a motion capture sensor By examining the position coordinates of the marker group in the section 1, the world coordinate position of the tip (operating section) of the surgical instrument can be specified. However, these surgical instruments are always sterilized and used repeatedly. On the other hand, since the marker group has an irregular structure and the marker part is difficult to remove, when attached to a surgical instrument, the marker group is likely to be disposable or removed and cleaned and sterilized separately.

本発明においては、洗浄等の為に手術用器具からマーカー群を外しても、手術用器具にマーカー群を貼り付け、キャリブレーション装置に載せただけで瞬時に手術用器具の先端(作用部)とマーカー群のローカル座標を計測できるので、感染症や二次感染を予防できるだけでなく、それぞれ効率の良い洗浄ができ、機材の洗浄効率が良くなる。また、手術室にて難しい作業なく、手術前に計測を行うので、環境の変化やマーカー群の摩耗によるドリフト等の可能性を軽減できるという効果がある。   In the present invention, even if the marker group is removed from the surgical instrument for cleaning or the like, the marker group is affixed to the surgical instrument and placed on the calibration device instantly (tip) of the surgical instrument. Since the local coordinates of the marker group can be measured, it is possible not only to prevent infections and secondary infections, but also to perform efficient cleaning, respectively, and to improve the cleaning efficiency of equipment. In addition, since measurement is performed before surgery without difficult work in the operating room, there is an effect that the possibility of drift due to environmental changes and marker group wear can be reduced.

更に、第2及び第3の形態を組み合わせる事で、次の新たな機能も導入する事が可能となる。図12で示す様に、まず、広角腹腔鏡12を挿入した際に、臓器の全体画像を確認し、何処に患部(図では黒×印)があるかを確認する。図13(a)はその時の画像の見えであるが、画像の中心には予め○印24が表示される様になっているので、その○印24の中に患部が来るように広角腹腔鏡12の角度と位置を動かし、その場所で広角腹腔鏡12からホール12cに患部測定棒12pを患部に先端が達するまで挿入する。先端が○印24に入ったのを確認して、患部測定棒12pの先端部のワールド座標位置と画像を記憶する。即ち、患部測定棒12pの先端部が患部に接しているので、その座標が患部のワールド座標位置になる。   Further, by combining the second and third modes, the following new functions can be introduced. As shown in FIG. 12, first, when the wide-angle laparoscope 12 is inserted, the whole image of the organ is confirmed to confirm where the affected part (black x mark in the figure) is. FIG. 13A shows the appearance of the image at that time. Since a circle mark 24 is displayed in advance at the center of the image, a wide-angle laparoscope is placed so that the affected area comes within the circle mark 24. The angle and position of 12 are moved, and the affected part measuring rod 12p is inserted into the hole 12c from the wide-angle laparoscope 12 until the tip reaches the affected part. After confirming that the tip has entered the circle mark 24, the world coordinate position and the image of the tip of the affected part measuring rod 12p are stored. That is, since the tip of the affected part measuring rod 12p is in contact with the affected part, the coordinate becomes the world coordinate position of the affected part.

記憶された画像を図13(b)に示しているが、既に記憶された画像であり、広角腹腔鏡12をトロッカー15から引き抜いてもモニター上には記憶画像が表示され続ける。次に、腹腔鏡13を挿入するが、既に腹腔鏡13の先端部(受光部)はワールド座標位置が求まっているので、その先端座標位置を図13(b)では十字印で重畳表示する。その患部と腹腔鏡13の先端部(受光部)の位置はA(0,0,+5)の様に、位置の差分情報としても表示される。同様にして、例えば鉗子14や電気メス18を別のトロッカー15から挿入してもそれぞれ先端部は異なる模様の○印25や△印26で表示され、その患部と鉗子14、電気メス18の先端部の位置はそれぞれB(+30,+40,+20)、C(―20,+20,+10)の様に、位置の差分情報としても表示される。これらの印がほぼ円の中に入った時点で、図13(b)の画像を腹腔鏡13で受光した画像図7(a)に切り替えれば、瞬時のアライメント時間だけで、全て挿入した手術器具をその狭い視野内で確認する事ができる。広角腹腔鏡12を引き抜いて別の手術用器具を挿入できるので、少ない切開数済み、且つ素早いアライメント作業が可能となる。   Although the stored image is shown in FIG. 13B, it is an already stored image, and the stored image continues to be displayed on the monitor even when the wide-angle laparoscope 12 is pulled out from the trocar 15. Next, the laparoscope 13 is inserted. Since the world coordinate position of the distal end portion (light receiving portion) of the laparoscope 13 has already been obtained, the distal end coordinate position is superimposed and displayed as a cross mark in FIG. 13B. The position of the affected part and the tip part (light receiving part) of the laparoscope 13 is also displayed as position difference information, as in A (0, 0, +5). Similarly, for example, even if the forceps 14 or the electric knife 18 is inserted from another trocar 15, the distal ends are displayed with differently marked circles 25 and Δ 26, respectively, and the affected area and the distal ends of the forceps 14 and the electric knife 18 are displayed. The position of each part is also displayed as position difference information, such as B (+30, +40, +20) and C (−20, +20, +10). When these marks are almost in the circle, if the image of FIG. 13B is switched to the image of FIG. 7A received by the laparoscope 13, all the surgical instruments inserted in only the instantaneous alignment time. Can be confirmed within the narrow field of view. Since the wide-angle laparoscope 12 can be pulled out and another surgical instrument can be inserted, the number of incisions can be reduced and a quick alignment operation can be performed.

第4の形態では、手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及び回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、前記画像表示装置は前記患部の画像を撮るカメラ及び前記第1マーカー群を有しており、前記カメラで撮られた第2画像と前記第1画像を重畳表示する為に、患者の患部を覆う透明シート貼り付け領域に少なくとも一つ以上の第2マーカーを取り付ける事を特徴としている。   In the fourth embodiment, a motion capture device having an imaging unit that emits infrared rays to a predetermined position in the operating room and receives reflected light from a marker group arranged at a predetermined interval is arranged, and a patient undergoing surgery is arranged. An image display that includes an image display device that superimposes and displays a predetermined first image on the affected area, and changes the affected area of the patient and the superimposed display image according to the coordinate position and rotation amount of the marker group measured by the motion capture device In the surgical operation system having the apparatus, the image display device includes a camera that captures an image of the affected area and the first marker group, and superimposes and displays the second image and the first image captured by the camera. For this purpose, at least one or more second markers are attached to the transparent sheet pasting region covering the affected area of the patient.

従来の技術で説明した(4)の段階では、図34の様に、感染症を防ぐ為、患部以外は無菌カバー31で覆い、更に透明シート32で患部が覆われる為、術中に患者に固定されたマーカー105を見る事ができなくなる。術中は色々な処置が行われるので、患者の位置が変わってしまう事が多いが、本発明によれば、透明シート32部分に第2マーカーが貼り付けられているので、術中でも第2マーカーにより患者の位置を確認する事が可能となり、患者の位置が変わっても、その第2マーカーを確認する事により、重畳画像表示がズレない様に制御する事が可能となる。   In the stage of (4) explained in the prior art, as shown in FIG. 34, in order to prevent infectious diseases, other than the affected part is covered with a sterile cover 31, and further, the affected part is covered with a transparent sheet 32, so that it is fixed to the patient during the operation. It becomes impossible to see the marked marker 105. Since various treatments are performed during the operation, the position of the patient is often changed. However, according to the present invention, the second marker is attached to the transparent sheet 32, so that the second marker can be used even during the operation. It is possible to check the position of the patient, and even if the position of the patient changes, it is possible to control so that the superimposed image display is not shifted by checking the second marker.

図14では分かり易い様に、患者100及び3点固定具104に対し、透明シート32と無菌カバー31、術作業の為の開口部31a、患部29(切開部分)及びマーカー30の大きさの関係が判る様に長方形で全て示している。まず、無菌カバー31で患者100を覆う前に、第1から第2の形態を用いてレジストレーションを実施する。この時点では重畳表示は問題無く行われている。次に、患部29の近傍にマーカー30を貼り付ける。第1から第2の形態で用いたカメラを使って、マーカー30の位置を画像認識する。既にマーカー群105とMRI重畳画像9のローカル座標値は求まっているので、第2マーカー30とマーカー群105とのローカル座標値が求まれば、マーカー30とMRI画像9のローカル座標値も求まる事になる。即ち、マーカー30は患者100の頭部に貼り付けられているので、マーカー30のローカル座標値変動を調べ補正する事で、MRI画像9と患者100の頭部画像を正確に重畳表示する事ができる。   For easy understanding in FIG. 14, the relationship between the size of the transparent sheet 32, the aseptic cover 31, the opening 31 a for the surgical operation, the affected part 29 (incision part), and the marker 30 with respect to the patient 100 and the three-point fixture 104. As you can see, everything is shown as a rectangle. First, before covering the patient 100 with the aseptic cover 31, registration is performed using the first and second embodiments. At this time, the superimposed display is performed without any problem. Next, the marker 30 is pasted in the vicinity of the affected part 29. Using the cameras used in the first to second embodiments, the position of the marker 30 is recognized as an image. Since the local coordinate values of the marker group 105 and the MRI superimposed image 9 have already been obtained, if the local coordinate values of the second marker 30 and the marker group 105 are obtained, the local coordinate values of the marker 30 and the MRI image 9 can also be obtained. become. That is, since the marker 30 is affixed to the head of the patient 100, the MRI image 9 and the head image of the patient 100 can be accurately superimposed and displayed by examining and correcting the local coordinate value variation of the marker 30. it can.

図17では、患部29とマーカー30が開口部31aから露出する様に無菌カバー31を位置合わせし、それ以外の患者100と3点固定具104、マーカー群105は完全に無菌カバー31で覆い、更に透明シート32で患部とマーカー30が覆われる様子を示している。マーカー群105が隠れてしまうので、モーションキャプチャー用センサー部1による患者100の頭部位置検出はできなくなるが、患者100の頭部の位置がドリフトしても、カメラを用いて透明シート32上で透けて見えるマーカー30のローカル座標値の変動を調べ、補正する事で、感染症のリスクを軽減したままでMRI画像9と患者100の頭部画像を正確にモニター上に重畳表示する事ができる。   In FIG. 17, the sterile cover 31 is aligned so that the affected area 29 and the marker 30 are exposed from the opening 31a, and the other patient 100, the three-point fixture 104, and the marker group 105 are completely covered with the sterile cover 31. Further, the state where the affected part and the marker 30 are covered with the transparent sheet 32 is shown. Since the marker group 105 is hidden, the position of the head of the patient 100 cannot be detected by the motion capture sensor unit 1, but even if the position of the head of the patient 100 drifts, the camera 100 is used on the transparent sheet 32. By examining and correcting fluctuations in the local coordinates of the marker 30 that can be seen through, the MRI image 9 and the head image of the patient 100 can be accurately superimposed and displayed on the monitor while reducing the risk of infection. .

尚、今回はARマーカーを例にしたが、ARマーカーは本来、画像認識用に使われ、位置精度自体はそれ程高くない。元々、術中に患者100の頭部が動いてしまう量はそれ程大きくないので、ARマーカーの代わりに図15(b)の様な黒枠の大きな正方形パターンを用いても良い。このパターンを2次元画像データとして取り込み、点線の様に分割して分割領域毎に縦及び横に加算処理する事で、1次元データX1,X2,Y1,Y2を形成する。黒枠部分のスロープ信号を検出し、そのそれぞれのスロープ位置を解析する事で、x,yのシフト量は勿論、回転量、ピッチング、ローリング誤差まで精度良く検出する事が可能となる。パターンが単純なので、画像認識には不向きだが、ある程度パターンの位置が定まっている状況(患者100の頭部ドリフトの量が小さい条件)ならば、加算処理する事で、平均化効果の高いこのパターンの方が高い精度で重畳表示状態を維持する事ができる。   Although the AR marker is taken as an example this time, the AR marker is originally used for image recognition and the position accuracy itself is not so high. Originally, the amount of movement of the head of the patient 100 during the operation is not so large, and a large square pattern with a black frame as shown in FIG. 15B may be used instead of the AR marker. One-dimensional data X1, X2, Y1, and Y2 are formed by taking in this pattern as two-dimensional image data, dividing it like a dotted line, and performing vertical and horizontal addition processing for each divided region. By detecting the slope signal of the black frame portion and analyzing each slope position, it is possible to accurately detect not only the shift amount of x and y but also the rotation amount, pitching, and rolling error. Since the pattern is simple, it is not suitable for image recognition, but in a situation where the position of the pattern is fixed to some extent (a condition where the amount of head drift of the patient 100 is small), this pattern with high averaging effect can be obtained by performing addition processing. It is possible to maintain the superimposed display state with higher accuracy.

更に、第5の形態では、手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を少なくとも3カ所に配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及び回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、前記画像表示装置は前記患部の画像を撮るカメラ及び前記第1マーカー群を有しており、前記カメラで撮られた第2画像と前記第1画像を重畳表示する為に、患者の患部から関節部を介さない患者の一部に、第2マーカー群を固定可能なコネクタ部を取り付ける事を特徴としている。   Furthermore, in the fifth embodiment, at least three motion capture devices having imaging units that emit infrared rays at predetermined positions in the operating room and receive reflected light from marker groups arranged at predetermined intervals are arranged. And an image display device that superimposes and displays a predetermined first image on the affected area of the patient undergoing surgery, and superimposed and displayed on the affected area of the patient according to the coordinate position and rotation amount of the marker group measured by the motion capture device In the surgical operation system having an image display device that changes an image, the image display device includes a camera that takes an image of the affected area and the first marker group, and the second image and the first image taken by the camera. In order to superimpose and display one image, a connector part capable of fixing the second marker group is attached to a part of the patient from the affected part of the patient not through the joint part. That.

図16に示す様に、コネクタ部33からマーカー群34を取り外し、無菌カバー31で覆い、透明シート32をコネクタ部33の上から貼るが、コネクタ部33にはマーカー群34を取り付ける凸部33bと、広い貼り付け面積を持つ平面部33aが存在する。透明シート32をコネクタ部33の上から貼ると、点線で示した様な凸部33b空洞部分が平面部33aに発生する。この点線に沿って、透明シート32を切り取ると、凸部33bが露出する。但し、点線32aまでは平面部33aと透明シート32の粘着裏面がしっかり粘着されているので、コネクタ部33とマーカー群34を殺菌消毒しておけば、裏側の菌が術中に表面に露出する様な不具合は発生しない。   As shown in FIG. 16, the marker group 34 is removed from the connector portion 33, covered with a sterile cover 31, and a transparent sheet 32 is pasted from above the connector portion 33. There is a flat portion 33a having a large pasting area. When the transparent sheet 32 is pasted from above the connector portion 33, a convex portion 33b hollow portion as shown by a dotted line is generated in the flat portion 33a. When the transparent sheet 32 is cut along the dotted line, the convex portion 33b is exposed. However, since the flat part 33a and the adhesive back surface of the transparent sheet 32 are firmly adhered to the dotted line 32a, if the connector part 33 and the marker group 34 are sterilized, the bacteria on the back side will be exposed on the surface during the operation. No trouble occurs.

図18では、患部29とコネクタ部33が開口部31aから露出する様に無菌カバー31を位置合わせし、それ以外の患者100と3点固定具104、マーカー群105は完全に無菌カバー31で覆い、更に透明シート32で患部とマーカー30が覆われた後に、コネクタ部33の凸部33b部分を含む点線32aで切り取り、凸部33bを露出させている様子を示している。マーカー群105が隠れてしまうので、モーションキャプチャー用センサー部1による患者100の頭部位置検出はできなくなるが、患者100の頭部の位置がドリフトしても、凸部33bにマーカー群34を取り付け、複数のモーションキャプチャー用センサー部1を用いてマーカー群34の変動量を調べ、補正する事で、MRI画像9と患者100の頭部画像を正確にモニター上に重畳表示する事ができる。   In FIG. 18, the aseptic cover 31 is aligned so that the affected part 29 and the connector part 33 are exposed from the opening 31a, and the other patient 100, the three-point fixture 104, and the marker group 105 are completely covered with the aseptic cover 31. In addition, after the affected part and the marker 30 are further covered with the transparent sheet 32, it is cut along a dotted line 32a including the convex part 33b portion of the connector part 33 to expose the convex part 33b. Since the marker group 105 is hidden, the head position of the patient 100 cannot be detected by the motion capture sensor unit 1, but the marker group 34 is attached to the convex portion 33b even if the position of the head of the patient 100 drifts. The MRI image 9 and the head image of the patient 100 can be accurately superimposed and displayed on the monitor by examining and correcting the fluctuation amount of the marker group 34 using the plurality of motion capture sensor units 1.

次の図19では第5の形態を別の方法で実現している。患部29の近傍は手術の際に重要な領域であり、そこにマーカー30やコネクタ部33を取り付ける事は難しい場合がある。そこで図19では患部29から離れた頭部を切開し、頭蓋骨にネジ穴を掘り、もう少し強度の高いコネクタ部35を埋め込んでいる。しかし、患者100全体は無菌カバー31で覆われているので、そのコネクタ部35に接続できるアーム部36を差し込み、無菌カバーの外側で、且つ手術の邪魔にならない位置までリレーする。その先端にコネクタ部としてマーカー群37を取り付けられる様にしている。設置自体は、ほとんど時間のかからない処理であり、設置の間、アーム部を人が支える事で、ネジ穴を掘った頭蓋骨部分に負荷は発生しない。   In FIG. 19, the fifth mode is realized by another method. The vicinity of the affected area 29 is an important area at the time of surgery, and it may be difficult to attach the marker 30 and the connector section 33 there. Therefore, in FIG. 19, the head away from the affected area 29 is incised, a screw hole is dug in the skull, and the connector part 35 having a slightly higher strength is embedded. However, since the entire patient 100 is covered with the sterile cover 31, the arm part 36 that can be connected to the connector part 35 is inserted, and relayed to a position outside the sterile cover and without interfering with the operation. A marker group 37 is attached to the tip as a connector portion. The installation itself is a process that takes almost no time. During installation, the arm is supported by a person so that no load is generated on the skull part where the screw hole is dug.

画像合成装置を用いて、MRIから得た3D画像と前記画像入力部から得られたビデオデータをモーションキャプチャー装置の結果に応じて重畳表示するが、PCモニター111で見る重畳表示画像は、手術の視線からPCモニター111に視線を移す必要があり、手術を行いながら即在に動静脈や神経の場所を把握する事を難しくしている。第6の形態では、手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及びマーク群の回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、前記画像表示装置は前記患部を左右の目で独立に見る為の第1及び第2拡大光学系を有しており、前記第1、第2拡大光学系と目の間に、前記患部の投影像と前記第1画像を重畳表示する為の第1、第2合成ミラーを有し、更には第1マーカー群を有している事を特徴としている。   Using the image composition device, the 3D image obtained from MRI and the video data obtained from the image input unit are superimposed and displayed according to the result of the motion capture device. It is necessary to move the line of sight from the line of sight to the PC monitor 111, making it difficult to immediately grasp the location of the arteries and veins and nerves while performing the operation. In the sixth embodiment, a motion capture device having an imaging unit that emits infrared light to a predetermined position in an operating room and receives reflected light from a marker group arranged at a predetermined interval is arranged, and a patient undergoing surgery is arranged. An image display device that superimposes and displays a predetermined first image on the affected area, and changes the patient's affected area and the superimposed display image according to the coordinate position of the marker group and the rotation amount of the mark group measured by the motion capture device; In the surgical operation system having the image display device to be operated, the image display device has first and second magnifying optical systems for independently viewing the affected area with the left and right eyes, and the first and second magnifying optics. Between the system and the eyes, it has first and second composite mirrors for displaying the projected image of the affected area and the first image in a superimposed manner, and further has a first marker group. .

図22が第6の形態の実施例を装着した時の斜視図であり、図23が第6の形態の実施例の側面図である。ケプラー式(拡大倍率4〜6)のルーペ部(ガリレオ式双眼ルーペタイプでも可)42と、対物レンズ部44が画像合成部45により接合された構造である。ルーペ部42の合焦点と対物レンズ44の先に取り付けられた2次元画像表示用液晶部43と眼の網膜が共役な位置にあり、右眼と左眼用に一対で構成されている。これらの光学部分を脱着部41で保持しており、取り付け可能なメガネ型固定部112に着脱部41をコネクトする事で、この画像出力装置40全体が安定して両目の位置に位置合わせできる構成になっている。また、脱着部41には一対の内蔵カメラ63も設置されており、そこで得られた情報は、2次元画像表示用液晶部43にて見る事が可能である。   FIG. 22 is a perspective view when the embodiment of the sixth embodiment is mounted, and FIG. 23 is a side view of the embodiment of the sixth embodiment. This is a structure in which a Kepler type (magnification 4 to 6) magnifying part (also a Galileo binocular loupe type) 42 and an objective lens part 44 are joined by an image synthesizing part 45. The in-focus point of the loupe unit 42, the two-dimensional image display liquid crystal unit 43 attached to the tip of the objective lens 44, and the retina of the eye are in a conjugate position, and are configured as a pair for the right eye and the left eye. A configuration in which these optical portions are held by the detachable portion 41, and the entire image output device 40 can be stably positioned at the positions of both eyes by connecting the detachable portion 41 to the spectacle-type fixing portion 112 that can be attached. It has become. A pair of built-in cameras 63 are also installed in the detachable section 41, and information obtained there can be viewed on the liquid crystal section 43 for two-dimensional image display.

また、ルーペ部とメガネ型固定部112の重量だけでも70〜90gあり、対物レンズ部44が画像合成部45、2次元画像表示用液晶部43を全て合わせると装重量は150〜200g程度となる。これをメガネと同様に耳と鼻の横で支えるのは厳しい。そこでこの画像出力装置40では着脱部41に形状記憶合金で作られた弾性棒60が取り付けられており、頭の頭部にある支持面58から出た支点部59を支点として、画像出力装置40の重量とバランサー61が「やじろべえ」の様な形で釣り合わす事で、バランスが保たれている。弾性棒60と支点の位置、バランサー61の位置や重さは微調整ができる構造であり、メガネと同等の数十g程度の重量を残す形でバランスを取れば、顔の動きに異存せず、双眼ルーペを装着した時に感じる鼻の横の支持部が重さで痛くなる様な不具合は無く、安定して装着し続ける事が可能となる。   The weight of the loupe unit and the glasses-type fixing unit 112 alone is 70 to 90 g. When the objective lens unit 44 is combined with the image synthesis unit 45 and the two-dimensional image display liquid crystal unit 43, the weight is about 150 to 200 g. . It is difficult to support this beside the ears and nose as with glasses. Therefore, in this image output device 40, an elastic rod 60 made of a shape memory alloy is attached to the detachable portion 41, and the image output device 40 uses the fulcrum portion 59 protruding from the support surface 58 on the head of the head as a fulcrum. Balance is maintained by balancing the weight of the balancer 61 with a shape like "Yajirobe". The position of the elastic bar 60 and the fulcrum, and the position and weight of the balancer 61 can be finely adjusted. When the binocular loupe is worn, there is no problem that the supporting part next to the nose hurts due to its weight, and it is possible to keep wearing it stably.

この構造だと、支点部59の下にある支持面58に全ての重量がかかってくるが、頭部全体にかかる重量なので、首への負担は殆ど無い。また、バランサーの重量を合わせても工事用ヘルメット程度の重さであり、支持面58の面積が広いので、頭部全体で重量を支える事になる。双眼ルーペやヘッドマウントディスプレイの様なバランスの偏りや締め付けによる不快感は無く、手術でも長時間装着する事ができる。   With this structure, all the weight is applied to the support surface 58 under the fulcrum 59, but the weight is applied to the entire head, so there is almost no burden on the neck. Moreover, even if the weight of the balancer is combined, it is as heavy as a construction helmet and the area of the support surface 58 is large, so that the weight is supported by the entire head. There is no discomfort due to imbalance or tightening like a binocular loupe or head-mounted display, and it can be worn for a long time even during surgery.

また、図23に示す様に、通常の双眼ルーペと同様に、コネクタ部を折り曲げる事で、双眼ルーペと同様に、眼の視線からルーペ部42を退避させる事ができ、広い視界(裸眼若しくはメガネ)で手術を継続する事も可能である。   Further, as shown in FIG. 23, like a normal binocular loupe, by folding the connector part, the loupe part 42 can be retracted from the line of sight of the eye as in the binocular loupe, and a wide field of view (naked eye or glasses) is obtained. ) To continue the surgery.

画像出力装置40の脱着部41にはマーカー群34も取り付けてあるので、レジストレーションを行う事ができる。レジストレーションにより内蔵カメラ63からの画像とMRIから得た3D画像を重畳画像として2次元画像表示用液晶部43に表示すれば、第1及び第5の形態を実施するのに必要な条件が全て整っている。更に、内蔵カメラ63をディプスカメラ6に変更すれば、第2の形態を実施する事も可能となる。内蔵カメラ63によりARマーカーを検出できる様にする事で、第4の形態を実施する事もできる。   Since the marker group 34 is also attached to the attachment / detachment portion 41 of the image output device 40, registration can be performed. If the image from the built-in camera 63 and the 3D image obtained from the MRI are displayed as a superimposed image on the two-dimensional image display liquid crystal unit 43 by registration, all the conditions necessary for carrying out the first and fifth embodiments are obtained. organized. Furthermore, if the built-in camera 63 is changed to the depth camera 6, the second embodiment can be implemented. By allowing the built-in camera 63 to detect the AR marker, the fourth embodiment can be implemented.

更には、腹腔鏡13のCCDカメラからの映像と手術器具の先端部情報を重畳画像として2次元画像表示用液晶部43に表示すれば、第3の形態を実施する事もできる。但し、この場合は、ルーペ部42の見えは邪魔になる。画像出力装置40は図25、図26に示す様に、分割ミラー(ハーフミラー)45とルーペ部44の間に出し入れ可能な遮蔽板46が配置されている。内視鏡手術の様に腹腔鏡13のCCDカメラからの映像のみ見たい場合は、図26の様に遮蔽板46を挿入する。   Furthermore, if the video from the CCD camera of the laparoscope 13 and the tip information of the surgical instrument are displayed on the two-dimensional image display liquid crystal unit 43 as a superimposed image, the third embodiment can be implemented. However, in this case, the appearance of the loupe unit 42 is obstructive. As shown in FIGS. 25 and 26, the image output device 40 is provided with a shield plate 46 that can be inserted and removed between the split mirror (half mirror) 45 and the loupe unit 44. When it is desired to view only the image from the CCD camera of the laparoscope 13 as in the case of endoscopic surgery, a shielding plate 46 is inserted as shown in FIG.

分割ミラーを偏光ミラーとし、46の部分に透過型液晶素子を入れても良い。偏光ミラーの透過光はP偏光であり、2次元画像表示用液晶部43から来る画像はS偏光なので、透過型液晶素子部で電気的にP偏光を遮蔽すれば同様の事ができる。一方、ルーペ部42の実像のみ見たい時は、2次元画像表示用液晶部43の画像をoffし、図25の様に遮光板46を退避させてば良い。透過型液晶素子部を使う場合は、電気的にP偏光を透過する様にすれば良い。   The split mirror may be a polarizing mirror, and a transmissive liquid crystal element may be placed in the 46 portion. Since the transmitted light of the polarizing mirror is P-polarized light and the image coming from the liquid crystal unit 43 for two-dimensional image display is S-polarized light, the same can be done if the P-polarized light is electrically shielded by the transmissive liquid crystal element unit. On the other hand, when only the real image of the loupe unit 42 is desired to be viewed, the image of the two-dimensional image display liquid crystal unit 43 is turned off and the light shielding plate 46 is retracted as shown in FIG. In the case of using a transmissive liquid crystal element portion, it is sufficient to electrically transmit P-polarized light.

またこの画像出力装置40は、ルーペ部42から実際の術中の状態を観察できるので、その実像に2次元画像表示用液晶部43の画像を重畳表示する事も可能である。この使用法に関しては、別途レジストレーション作業が必要となる。一対のルーペ42の間隔と、一対で配置された内蔵カメラ63の間隔はほぼ等しいので、これらを重畳表示すると、ハーフミラーで両方の画像が見える。ルーペ部42の視界中心を見た場合、内蔵カメラの視界の中心と並行になる様に設計されており、その見えや倍率が合う様に2次元画像表示用液晶部43の画像の位置及び倍率を調整する。左右の目共に見えが一致すればレジストレーション作業は終了である。   In addition, since the image output device 40 can observe the actual intraoperative state from the loupe unit 42, the image of the liquid crystal unit 43 for two-dimensional image display can be superimposed on the real image. For this usage, a separate registration work is required. Since the interval between the pair of loupes 42 and the interval between the built-in cameras 63 arranged in a pair are substantially equal, when these are superimposed and displayed, both images can be seen by the half mirror. When the view center of the loupe unit 42 is viewed, it is designed to be parallel to the view center of the built-in camera, and the position and magnification of the image on the liquid crystal unit 43 for two-dimensional image display are matched so that its appearance and magnification match. Adjust. If the left and right eyes match, the registration operation is complete.

図24(a)は画像出力装置40と同じ拡大倍率を持つ双眼ルーペ114で見た時の患部であり、(b)はその視線から見た時のMRIの立体画像である。画像出力装置40を装着する事で、(c)の様に、ルーペ部42と画像とMRIから得た3D画像の重畳表示も精度良く重ねる事が可能となる。ルーペ部42により立体視が可能であり、手術を行いながら、視線を変えずに腫瘍Vの位置、静脈J等の位置を確認できるという利点がある。一般にレンズを介して物体を見る場合、周りを見渡す場合は必ず眼の瞳位置が変化する。これによりレンズを通る主光線の位置が変わり、ディストーションも変化してしまう。このディストーションの変化に対応して重畳画像を変化させる事は容易ではないが、本発明では視野の狭いルーペを用いている上に、モーションキャプチャーを用いる事で、画像のトラッキングができるので、常に物体をルーペのレンズ中心付近で見る事が可能である。中心付近の画像には殆どディストーションが発生していないので、重畳させる画像のディスト−ション等の補正も殆ど必要無い。   FIG. 24A shows an affected area when viewed with a binocular loupe 114 having the same magnification as the image output apparatus 40, and FIG. 24B is an MRI stereoscopic image when viewed from the line of sight. By mounting the image output device 40, as shown in (c), it is possible to accurately overlay the 3D image obtained from the loupe unit 42, the image, and the MRI. Stereoscopic viewing is possible by the loupe unit 42, and there is an advantage that the position of the tumor V, the position of the vein J, etc. can be confirmed without changing the line of sight while performing the operation. In general, when viewing an object through a lens, the pupil position of the eye always changes when looking around. As a result, the position of the chief ray passing through the lens changes, and the distortion also changes. Although it is not easy to change the superimposed image in response to this change in distortion, the present invention uses a loupe with a narrow field of view and also uses motion capture to track the image. Can be seen near the center of the loupe lens. Since there is almost no distortion in the image near the center, there is almost no need to correct the distortion of the image to be superimposed.

最後に残るのが、高度な手術で二人観察用の手術用顕微を用いる場合である。第一執刀医と第二執刀医の二人が同時に患部の立体像を見る事ができ、更には重畳表示画像を同時に見る事ができれば、効率良く安全なナビゲーションが可能となる。それを実現する為に、第7の形態では、手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を少なくとも3カ所に配置し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及びマーク群の回転量に応じて患者の患部の表示画像を変化させる画像表示装置を有する外科手術システムにおいて、前記画像表示装置は第1マーカー群が配置されたヘッドマウントディスプレイであり、患者の患部を撮像する立体顕微鏡には、その第1結像面に患部の画像を受光する2次元画像センサーが配置されており、ヘッドマウントディスプレイの装着者の顔の動きに応じて、患部を回転中心とした前記立体顕微鏡の回転及びシフト量を制御する制御機構を有し、且つ前記装着者の顔の動きに応じて前記立体顕微鏡の回転及びシフト量を制御する事を特徴としている。   The last thing to do is when using a surgical microscope for two-person observation in advanced surgery. If the first surgeon and the second surgeon can see the three-dimensional image of the affected area at the same time, and can see the superimposed display image at the same time, efficient and safe navigation is possible. In order to achieve this, in the seventh embodiment, at least a motion capture device having an imaging unit that emits infrared rays to a predetermined position in an operating room and receives reflected light from marker groups arranged at predetermined intervals is provided. In the surgical operation system having an image display device arranged at three locations and changing a display image of a diseased part of a patient according to a coordinate position of the marker group measured by the motion capture device and a rotation amount of the mark group. The display device is a head-mounted display in which a first marker group is arranged, and a two-dimensional image sensor that receives an image of the affected area is arranged on the first imaging plane of the stereoscopic microscope that images the affected area of the patient. The amount of rotation and shift of the stereomicroscope with the affected area as the center of rotation is controlled according to the movement of the face of the wearer of the head mounted display. A control mechanism is characterized by controlling the rotation and shift amount of the stereoscopic microscope and depending on the movement of the face of the wearer.

図27(a)〜(b)が第7の形態における実施例であり、(a)が正面図であり、(b)が側面図である。LED照明62の光が観察ターゲットTを照射すると、ターゲットTからの拡散反射光は所定の傾きを持った光束として偏向レンズ48を介して平行光束となる。その後、ズーム光学系49、対物・フォーカス調整レンズ50を経てターゲットTの像は2次元CCD51上に投影される。これは偏向レンズ48での光束の間隔は人の両目の間隔である62mm近傍に設定されており、両目を偏向レンズ48の位置に置いてターゲットTを見た時の立体視とほぼ同じ条件である。   27 (a) to 27 (b) are examples in the seventh embodiment, (a) is a front view, and (b) is a side view. When the light of the LED illumination 62 irradiates the observation target T, the diffuse reflected light from the target T becomes a parallel light flux through the deflecting lens 48 as a light flux having a predetermined inclination. Thereafter, the image of the target T is projected onto the two-dimensional CCD 51 through the zoom optical system 49 and the objective / focus adjustment lens 50. This is because the distance between the light beams in the deflection lens 48 is set to be 62 mm, which is the distance between the eyes of the person, and the stereoscopic vision when viewing the target T with both eyes positioned at the deflection lens 48 is almost the same. is there.

即ち、2次元CCD51の画像を、例えば第6の形態で説明したヘッドマウントディスプレイ型の画像表示装置40で見ると、両目を偏向レンズ48の位置に置いてターゲットTを見ながら手術を行っているのとほぼ同等の条件となる。2次元CCD51の画像は電気的に分配可能なので、ヘッドマウントディスプレイ型の画像表示装置を装着している人全てが同一条件で立体画像を見る事が可能となる。また、一般に、第2執刀医は第1執刀医の術台109を挟んで反対側で作業を行う場合が多い。第2執刀医から見れば、第1執刀医の視線は通常見る条件に対して180度回転した画像を見ている事になる。これは自分の右手が左側から現れる事を意味し、非常に作業が行い難い。2次元CCD51の画像は画像処理により180度回転する事は容易にできるので、第2執刀医に対しては、180度回転した画像を見せる事で、サポートの効率を高める事が可能となる。   That is, when the image of the two-dimensional CCD 51 is viewed on, for example, the head mounted display type image display device 40 described in the sixth embodiment, the operation is performed while looking at the target T with both eyes placed at the position of the deflection lens 48. The conditions are almost equivalent to. Since the image of the two-dimensional CCD 51 can be electrically distributed, all persons wearing a head mounted display type image display device can view a stereoscopic image under the same conditions. In general, the second surgeon often performs work on the opposite side of the operating table 109 of the first surgeon. From the viewpoint of the second surgeon, the first surgeon's line of sight is looking at an image rotated 180 degrees with respect to the normal viewing condition. This means that your right hand appears from the left side, which is very difficult to do. Since the image of the two-dimensional CCD 51 can be easily rotated 180 degrees by image processing, it is possible to increase the efficiency of the support by showing the second surgeon the image rotated 180 degrees.

画像表示装置40はヘッドマウントディスプレイ型なので、任意の位置で画像を見る事が可能である。但し、執刀医が手術を行う時はターゲットTの位置に患者100の患部があるので、指先はその位置で作業を行う必要がある。よって、立体顕微鏡47と画像表示装置40の位置関係は図28(a)〜(b)の様になる。(a)が正面からの様子で、(b)が側面からの様子を示している。ここで偏向レンズ48とターゲットTの間隔をLとすると、執刀医は最も楽な視線状態(個人差もあるが、通常は20〜30度下を向いた状態)で仮想ターゲットがその視線でL離れたTTという事になる。この眼とTTの方向が画像表示装置40の中でのZ軸方向となり、それに応じてX軸及びY軸の角度も決定され、これがバーチャル空間での座標軸Bとなる。   Since the image display device 40 is a head-mounted display type, an image can be viewed at an arbitrary position. However, when the surgeon performs an operation, the affected part of the patient 100 is at the position of the target T, and the fingertip needs to work at that position. Therefore, the positional relationship between the stereoscopic microscope 47 and the image display device 40 is as shown in FIGS. (A) is a front view, and (b) is a side view. Here, when the distance between the deflection lens 48 and the target T is L, the surgeon is in the most comfortable line-of-sight state (there is an individual difference, but usually 20 to 30 degrees downward), and the virtual target is L It will be a distant TT. The direction of the eyes and TT is the Z-axis direction in the image display device 40, and the angles of the X-axis and the Y-axis are determined accordingly, and this is the coordinate axis B in the virtual space.

執刀医はその座標軸上でTTの位置に患者100の患部を見ている事になるので、術中も顔を向けた方向と同様の方向に立体顕微鏡47を制御する事で、執刀医は現実の視線に応じて患部を見る事ができるので、従来技術の手術用立体顕微鏡の様に、大掛かりな立体顕微鏡支持アームをその都度動かして、見る位置や角度を変える様な煩わしさが無くなる。これは作業の効率及び安全性を高めるだけでなく、バーチャル酔いを防止するという効果もある。   Since the surgeon sees the affected part of the patient 100 at the position of TT on the coordinate axis, the surgeon can control the stereoscopic microscope 47 in the same direction as the direction of the face during the operation. Since the affected part can be seen in accordance with the line of sight, the trouble of changing the viewing position and angle by moving a large stereoscopic microscope support arm each time as in the conventional surgical stereoscopic microscope is eliminated. This not only increases work efficiency and safety, but also has the effect of preventing virtual sickness.

図29(a)〜(b)は通常の執刀医の顔の動かし方を示している。仮想ターゲットTTに対し、座標軸B基準のZ軸周りと横の移動は、立体顕微鏡47の図29(a)の紙面に沿った回転と紙面に沿った横シフトとなるので、Z軸周り回転ステージ53cのZ軸周り回転駆動と、X軸移動ステージ54XのX駆動のみで対応できる。また、仮想ターゲットTTに対し、座標軸B基準のX軸周りと縦の移動は、立体顕微鏡47の図29(b)の紙面に沿った回転と紙面に沿った縦シフトとなるので、立体顕微鏡47のX軸周り回転駆動と、Z方向移動軸56のZ駆動のみで対応できる。それぞれの駆動系は独立に制御できるので、顔の動きに応じてスムーズな立体顕微鏡47の駆動制御が可能となる。   FIGS. 29A and 29B show how to move a normal surgeon's face. The horizontal movement around the Z axis with reference to the coordinate axis B with respect to the virtual target TT is a rotation along the paper surface of FIG. 29A and a lateral shift along the paper surface of the stereoscopic microscope 47, and therefore a rotation stage around the Z axis. The rotation around the Z axis of 53c and the X drive of the X axis moving stage 54X can be handled only. Further, the vertical movement around the X axis with reference to the coordinate axis B with respect to the virtual target TT becomes a rotation along the paper surface of FIG. 29B and a vertical shift along the paper surface of the stereoscopic microscope 47. The rotation around the X axis and the Z drive of the Z-direction moving shaft 56 can be handled. Since each drive system can be controlled independently, smooth drive control of the stereoscopic microscope 47 can be performed according to the movement of the face.

顔の動きは画像表示装置40に設置されたマーカー群34の動きを複数のモーションキャプチャー用センサー部1を用いて計測し、座標軸B基準に対する変動位置と変動角度に応じて立体顕微鏡47を駆動制御すれば良い。また、立体顕微鏡47にマーカー群を設置し、それも複数のモーションキャプチャー用センサー部1を用いて計測する事で、立体顕微鏡47が想定通りに駆動したかをフィードバック制御する事も可能である。尚、今回は画像表示装置40を用いたが、無論、通常の手術用ヘッドマウントディスプレイ39を用いても同様の事が可能となる。   For the movement of the face, the movement of the marker group 34 installed in the image display device 40 is measured using a plurality of motion capture sensor units 1, and the stereoscopic microscope 47 is driven and controlled according to the fluctuation position and fluctuation angle with respect to the coordinate axis B reference. Just do it. It is also possible to feedback control whether or not the stereoscopic microscope 47 is driven as expected by installing a marker group in the stereoscopic microscope 47 and measuring it using a plurality of motion capture sensor units 1. Although the image display device 40 is used this time, it goes without saying that the same thing can be achieved by using a normal surgical head mounted display 39.

立体顕微鏡47の画像を画像表示装置40で見る場合の重畳表示についてであるが、立体顕微鏡47にマーカー群を設置すれば、元々2次元CCD51が内蔵カメラの役割を果たすので、シフト及び回転に関するレジストレーションは第3〜第5の形態の発明を用いて計測可能である。但し、立体顕微鏡47にはズーム光学系49が搭載されており、画像の倍率をズーム光学系49により変化させた場合は、マーカー群を用いた重畳表示制御ができない。この場合は、ターゲットT近傍に配置した第4の形態で用いたARマーカーを2次元CCD51にて確認し、倍率や位置変化を補正する事で、安定した重畳表示が可能となる。   As for the superimposed display when viewing the image of the stereoscopic microscope 47 with the image display device 40, if a marker group is installed in the stereoscopic microscope 47, the two-dimensional CCD 51 originally functions as a built-in camera. Can be measured using the third to fifth aspects of the invention. However, the zoom optical system 49 is mounted on the stereoscopic microscope 47, and when the magnification of the image is changed by the zoom optical system 49, the superimposed display control using the marker group cannot be performed. In this case, by confirming the AR marker used in the fourth form arranged in the vicinity of the target T with the two-dimensional CCD 51 and correcting the magnification and the position change, stable superimposed display is possible.

それ以外にも立体顕微鏡47の駆動部はそれぞれの方向に干渉せず独立に制御できる構成なので、予め、各エンコーダ値の変動に応じて重畳表示画像がどの程度ドリフトするかを自動計測し、変動誤差をマップとして記憶しておいても良い。メカ公差や立体顕微鏡47の自重変形による誤差については、その状態での自動計測による変動誤差マップによる補正で、重畳表示画像のドリフトを最小限に抑える事が可能となる。   In addition, since the driving unit of the stereoscopic microscope 47 can be controlled independently without interfering with each direction, the degree to which the superimposed display image drifts is automatically measured in advance according to the variation of each encoder value. The error may be stored as a map. Regarding errors due to mechanical tolerances and deformation of the self-weight of the stereoscopic microscope 47, the drift of the superimposed display image can be minimized by correcting with a variation error map by automatic measurement in that state.

以上の様に本発明によれば、従来の技術で説明した外科手術の手順(1)〜(4)で画像の重畳表示が必要な時に第1〜第7の形態を提供する事で、重畳表示画像を精度良く提供できるという効果がある。   As described above, according to the present invention, by providing the first to seventh modes when the superimposed display of images is necessary in the surgical procedures (1) to (4) described in the conventional technique, There is an effect that the display image can be provided with high accuracy.

本発明による第1の形態による手術システムの構成図。The block diagram of the surgery system by the 1st form by this invention. 本発明による第1の形態で、タブレットを用いた重畳表示の様子。A state of superimposed display using a tablet in the first embodiment of the present invention. 本発明による第2の形態で、ディプスカメラの原理説明図。Explanatory drawing of the principle of a depth camera by the 2nd form by this invention. 本発明による第2の形態で、ディプスカメラ搭載のタブレットを用いた重畳表示の様子。A state of superimposed display using a tablet equipped with a depth camera in the second embodiment of the present invention. (a)MRIで撮られたデータを表面の3Dポリゴンデータに変換したもの、(b)MRIで撮られたデータを表面の3D点群データに変換したもの、(c)ディプスカメラで撮られた3D点群データ。(A) Data obtained by MRI converted to surface 3D polygon data, (b) Data taken by MRI converted to surface 3D point cloud data, (c) Taken by depth camera 3D point cloud data. 内視鏡手術での患者の断面図。Sectional drawing of a patient in endoscopic surgery. (a)腹腔鏡13を用いた時の画像の見え、(b)広角腹腔鏡12を用いた時の画像の見え。(A) Appearance of image when using laparoscope 13 (b) Appearance of image when using wide-angle laparoscope 12 (a)広角腹腔鏡12の先端部の説明図、(b)腹腔鏡13の先端部の説明図。(A) Explanatory drawing of the front-end | tip part of the wide angle laparoscope 12, (b) Explanatory drawing of the front-end | tip part of the laparoscope 13. FIG. 内視鏡手術に用いられる手術器具の説明。Description of surgical instruments used for endoscopic surgery. 内視鏡手術に用いられる手術器具にマーカー群と取り付けた時の説明。Explanation when a marker group is attached to a surgical instrument used for endoscopic surgery. 本発明による第3の形態で、キャリブレーション架台19を用いた各手術器具のローカル座標計測の様子。The state of the local coordinate measurement of each surgical instrument using the calibration stand 19 in the third mode of the present invention. 広角腹腔鏡12を用いた作業を説明した、内視鏡手術での患者の断面図の様子。A state of a cross-sectional view of a patient in an endoscopic operation, explaining an operation using the wide-angle laparoscope 12. (a)広角腹腔鏡12を用い、患部測定棒12pを挿入した時のCCDの見え、(b)広角腹腔鏡12を用いた時の記憶画像と、手術用器具の先端位置を示した。(A) The appearance of the CCD when using the wide-angle laparoscope 12 and inserting the affected part measuring rod 12p, (b) the stored image when using the wide-angle laparoscope 12, and the tip position of the surgical instrument are shown. 本発明による第4の形態の説明図1。Explanatory drawing 1 of the 4th form by this invention. (a)ARマーカーの例、(b)黒枠の大きな正方形パターンのマーカー図と計測方法の説明図。(A) Example of AR marker, (b) Marker diagram of square pattern with large black frame and explanatory diagram of measurement method. 本発明による第5の形態の第1実施例の説明図1。Explanatory drawing 1 of 1st Example of the 5th form by this invention. 本発明による第4の形態の説明図2。Explanatory drawing 2 of the 4th form by this invention. 本発明による第5の形態の第1実施例の説明図2。Explanatory drawing 2 of 1st Example of the 5th form by this invention. 本発明による第5の形態の第2実施例の概略図。Schematic of the second embodiment of the fifth aspect according to the present invention. 画像入力部を有する手術用器具の説明。A description of a surgical instrument having an image input unit. 画像出力部を有する手術用器具の説明。A description of a surgical instrument having an image output unit. 本発明による第6の形態の実施例を装着した時の斜視図。The perspective view when the Example of the 6th form by this invention is mounted | worn. 本発明による第6の形態の実施例を装着した時の側面図。The side view when the Example of the 6th form by this invention is mounted | worn. (a)双眼ルーペで見た時の患部の手術の様子、(b)MRIで撮られた患部の3Dポリゴンデータ、(c)本発明による第6の形態の実施例を装着した時の患部の重畳表示結果。(A) Operation of the affected area when viewed with a binocular loupe, (b) 3D polygon data of the affected area taken by MRI, (c) The affected area when the embodiment of the sixth embodiment according to the present invention is mounted Superimposed display result. 本発明による第6の形態の実施例で遮蔽部を退避させた時の図。The figure when the shielding part is retracted in the embodiment of the sixth aspect according to the present invention. 本発明による第6の形態の実施例で遮蔽部を挿入させた時の図。The figure at the time of inserting the shielding part in the Example of the 6th form by the present invention. (a)本発明による第7の形態の実施例の正面図、(b)本発明による第7の形態の実施例の側面図。(A) The front view of the Example of the 7th form by this invention, (b) The side view of the Example of the 7th form by this invention. (a)本発明による第7の形態の実施例の正面図で顔を動かしていない時の様子、(b)本発明による第7の形態の実施例の側面図で顔を動かしていない時の様子。(A) When the face is not moved in the front view of the embodiment of the seventh mode according to the present invention, (b) When the face is not moved in the side view of the embodiment of the seventh mode according to the present invention State. (a)本発明による第7の形態の実施例の正面図で顔を動かした時に、立体顕微鏡47が連動して動いている時の様子、(b)本発明による第7の形態の実施例の側面図で顔を動かした時に、立体顕微鏡47が連動して動いている時の様子。(A) When the face is moved in the front view of the embodiment of the seventh embodiment according to the present invention, the state when the stereoscopic microscope 47 is moving in an interlocked manner, (b) The embodiment of the seventh embodiment according to the present invention When the face is moved in the side view of FIG. 本発明による制御装置の説明図。Explanatory drawing of the control apparatus by this invention. (a)従来技術による手術システムの説明図、(b)脱着可能な双眼ルーペの斜視図、(c)従来技術による手術用立体顕微鏡の斜視図。(A) Explanatory drawing of the surgery system by a prior art, (b) The perspective view of a detachable binocular loupe, (c) The perspective view of the surgical stereomicroscope by a prior art. (a)〜(c)従来技術によるレジストレーション測定の手順説明図。(A)-(c) Explanatory drawing of the procedure of the registration measurement by a prior art. (a)従来技術によるMRIによる計測画像データの表示ソフトの例、(b)従来技術によるレジストレーション測定結果の確認作業の様子。(A) Example of display software for measurement image data by MRI according to the prior art, (b) State of confirmation work of registration measurement result according to the prior art. 感染症防止の為の手術作業の様子。Surgery work to prevent infection.

第1の形態では、図1に示す様に、手術室の邪魔にならない位置にポール2を設置し、4つのモーションキャプチャー用センサー部1を取り付けている。モーションキャプチャー用センサー部1には赤外のLED照明があり、マーカー群105及び、図2に示したタブレット4に取り付けられたマーカー群3を照明する事で、同センサー部1のCMOS部で2次元のマーカー群105とマーカー群3の画像を取り込める様に制御されている。   In the first embodiment, as shown in FIG. 1, a pole 2 is installed at a position that does not interfere with the operating room, and four motion capture sensor units 1 are attached. The sensor unit for motion capture 1 has infrared LED illumination. By illuminating the marker group 105 and the marker group 3 attached to the tablet 4 shown in FIG. Control is performed so that images of the three-dimensional marker group 105 and the marker group 3 can be captured.

このモーションキャプチャーの制御はモーションキャプチャー制御装置1PCにより行われる。4つのモーションキャプチャー用センサー部1から取り込んだ画像をステレオ画像処理法により解析し、マーカー群105とマーカー群3の位置座標を正確に計測できる。モーションキャプチャー用センサー部1は最低3個あれば良いが、術中は第1執刀医及び第2執刀医、更にはサポートを行う看護師も患者100の周りにいるので、それも考慮して4〜8個配置している。   This motion capture control is performed by the motion capture control device 1PC. Images captured from the four motion capture sensor units 1 can be analyzed by the stereo image processing method, and the position coordinates of the marker group 105 and the marker group 3 can be accurately measured. It is sufficient if there are at least three sensor units 1 for motion capture, but the first and second surgeons and the supporting nurse are also around the patient 100 during the operation. Eight are arranged.

更に図2に示す様に、通常市販されているタブレット4には内蔵のカメラがあり、そのタブレット4の内蔵カメラで患者100の頭部を撮ると、画面に患者100の頭部画像が表示される。一方、MRIは人体を輪切り状にしてその内部映像を画像データとして記憶している。よって、人体の表面情報は外周の画像を点群データとし、それをポリゴンデータ9に変換処理する事ができる。従来技術と同様に、レジストレーション測定を行う事で、タブレット4の画面上で患者100の頭部画像とMRIのポリゴンデータによる重畳表示画像5を観察する事ができる様になる。   Further, as shown in FIG. 2, the tablet 4 that is usually marketed has a built-in camera, and when the head of the patient 100 is taken with the built-in camera of the tablet 4, the head image of the patient 100 is displayed on the screen. The On the other hand, the MRI stores the internal video as image data with the human body cut into a circle. Therefore, the surface information of the human body can be converted into polygon data 9 by using the outer peripheral image as point cloud data. Similar to the prior art, by performing registration measurement, the head image of the patient 100 and the superimposed display image 5 based on MRI polygon data can be observed on the screen of the tablet 4.

図4ではこの内蔵カメラの代わりに、タブレット4に取り付けたディプスカメラ6を使う場合の実際の作業風景を示している。ディプスカメラ6は最も簡単で性能が良い方法としてTime of Flightが提案されている。これは図3に示す様に、LED照明7を所定のsinカーブで点滅させ、対象物からの反射光の位相遅れDを検出する事で、対象物までの距離を計測する方法である。即ち、対物レンズ付の2次元受光素子8を有するディプスカメラ6の場合、素子毎に位相遅れを検出する事が可能であり、対象物の表面までの距離は素子の分割数の細かさで検出できる。元々、ディプスカメラ6自体のレンズ付の2次元受光素子8は上下左右の位置情報は持っているので、更にその奥行情報をTime of Flight計測で撮る事で、3次元の対象物100の表面情報を得る事ができる。   FIG. 4 shows an actual working scene when a depth camera 6 attached to the tablet 4 is used instead of the built-in camera. Time of Flight has been proposed as the simplest and best performance method for the depth camera 6. As shown in FIG. 3, this is a method of measuring the distance to the object by blinking the LED illumination 7 with a predetermined sin curve and detecting the phase delay D of the reflected light from the object. That is, in the case of the depth camera 6 having the two-dimensional light receiving element 8 with the objective lens, it is possible to detect the phase delay for each element, and the distance to the surface of the object is detected by the fineness of the number of divided elements. it can. Originally, the two-dimensional light receiving element 8 with the lens of the depth camera 6 itself has the position information of the top, bottom, left and right, and further, by taking the depth information by Time of Flight measurement, the surface information of the three-dimensional object 100 is obtained. Can be obtained.

第2の形態について説明する。図6は内視鏡手術での患者の断面図16である。内視鏡手術は患部へのアクセスを容易にする為、5ミリから2センチ程度の小さな穴を数箇所開け、注入する二酸化炭素ガスが漏れない様に、体腔内と体外を継ぐ連絡路の役割を担うトロッカー15を穴に設置する。そこから二酸化炭素ガスを注入し、膨らませることにより手術に必要なスペースを確保し、内視鏡と細い手術器具を挿入し手術を行なう。内視鏡は胃カメラのような器具だが、この手術専用のものは腹腔鏡13と呼ばれ、2次元画像素子に患部の像を投影する事で、患部の様子をモニターに映し出す。しかし従来の腹腔鏡13は視野が狭く、患部まで腹腔鏡13やその他の細い手術器具を到達させるアライメントに時間がかかる。   The second embodiment will be described. FIG. 6 is a cross-sectional view 16 of a patient in endoscopic surgery. Endoscopic surgery facilitates access to the affected area by opening several small holes of about 5mm to 2cm, and the role of the communication path that connects the body cavity and outside the body so that the injected carbon dioxide gas does not leak Is installed in the hole. From there, carbon dioxide gas is injected and inflated to secure the space necessary for the operation, and an endoscope and a thin surgical instrument are inserted to perform the operation. The endoscope is an instrument like a stomach camera, but the one dedicated to this operation is called a laparoscope 13 and projects the image of the affected part on a two-dimensional image element, thereby projecting the state of the affected part on the monitor. However, the conventional laparoscope 13 has a narrow field of view, and it takes time to align the laparoscope 13 and other thin surgical instruments to the affected area.

本発明である広角腹腔鏡12は図8(a)に示す様に、先端の受光部に凹レンズ12bを採用する事で、図6の様に穴の位置から広い視野を観察する事が可能な装置である。図8(b)に示す通常の腹腔鏡13の先端部12aに、器具の挿入や吸引に使うホール13c及び照明部13d及びが付いているのと同様に、図8(a)に示す先端部12aに、器具の挿入や吸引に使うホール12c及び照明部12dが付いており、2次元画像素子に患部の像を投影する事で、患部の様子をモニターに映し出せるが、先端の受光部が凸レンズ13bでない部分が異なる。それ以外のCCD出力部等も通常の腹腔鏡13と同じ構造である。   As shown in FIG. 8 (a), the wide-angle laparoscope 12 according to the present invention employs a concave lens 12b in the light receiving portion at the tip, so that a wide visual field can be observed from the position of the hole as shown in FIG. Device. The tip portion shown in FIG. 8 (a) is similar to the tip portion 12a of the normal laparoscope 13 shown in FIG. 8 (b), which has a hole 13c and an illumination portion 13d used for instrument insertion and suction. 12a is provided with a hole 12c and an illumination unit 12d used for insertion and suction of an instrument, and by projecting an image of the affected part on a two-dimensional image element, the state of the affected part can be displayed on a monitor. The part which is not the convex lens 13b is different. Other CCD output units and the like have the same structure as the normal laparoscope 13.

また、図6に示す様に、挿入する細い部分が、腹腔鏡13の部分と比べてもトロッカー15の先端からぎりぎり先端部が出る程度に短い。よって、差し込んだ状態で安定する構造であり、広い視野を映し出すのに適している事が判る。図7(b)はその広い視野で患部を見ながら、他の手術器具が挿入されている様子を示している。迷うこと無く、短時間で腹腔鏡13及び、鉗子14の先端を患部まで挿入できている。この状態で全ての手術器具を挿入し、アライメントした時点で、腹腔鏡13の映像にモニター図7(a)に切り替えるので、どの様に臓器の位置が変わっても、アライメント作業を短縮し、スムーズに術作業を行う事ができる。   Further, as shown in FIG. 6, the thin portion to be inserted is shorter than the portion of the laparoscope 13 to the extent that the tip portion of the trocar 15 protrudes from the tip. Therefore, it can be seen that the structure is stable when inserted, and is suitable for projecting a wide field of view. FIG. 7B shows a state in which another surgical instrument is inserted while viewing the affected part with the wide visual field. Without getting lost, the tips of the laparoscope 13 and forceps 14 can be inserted to the affected area in a short time. In this state, when all the surgical instruments are inserted and aligned, the monitor image is switched to the image of the laparoscope 13 as shown in FIG. 7A, so that the alignment operation is shortened and smooth regardless of the organ position. It is possible to perform a surgical operation.

次に第3の形態を説明する。先の発明では、広角腹腔鏡12を用いた場合、常に一つのトロッカー15を専有する事になるが、臓器が大きく動くのは、患者を所定の形で固定し、二酸化炭素ガスを注入する事に起因している。よって、最初に広角腹腔鏡12を挿入し、臓器の位置を確認できれば、図12に示す様に、広角腹腔鏡12を引き抜いて、その穴を別の手術器具の挿入用に使う事ができる。しかし、これでは各手術器具を挿入する際にその位置を確認するのが難しい。   Next, a third embodiment will be described. In the previous invention, when the wide-angle laparoscope 12 is used, a single trocar 15 is always occupied. However, the organ moves greatly because the patient is fixed in a predetermined shape and carbon dioxide gas is injected. Due to Therefore, if the wide-angle laparoscope 12 is first inserted and the position of the organ can be confirmed, as shown in FIG. 12, the wide-angle laparoscope 12 can be pulled out and the hole can be used for insertion of another surgical instrument. However, this makes it difficult to confirm the position when inserting each surgical instrument.

先に説明したキャリブレーター106と同様に、尖った触手を行う先端部分aを手術器具の先端(作用部)として、マーカー群部分bを設置し、その間隔をローカル座標として予め計測しておけば、モーションキャプチャー用センサー部1でそのマーカー群の位置座標を調べる事で、手術器具の先端(作用部)のワールド座標位置を特定する事ができる。しかし、これらの手術器具は常に殺菌消毒され、繰り返し使われるものである。一方、マーカー群は構造がいびつで、マーカー部は汚れが取り難い為、手術器具に取り付けた場合は、使い捨てとするか、取り外して別に洗浄殺菌する可能性が高い。   Similarly to the calibrator 106 described above, if the tip portion a that performs a pointed tentacle is used as the tip (operation portion) of the surgical instrument, the marker group portion b is installed, and the interval is measured in advance as local coordinates, By checking the position coordinates of the marker group with the motion capture sensor unit 1, the world coordinate position of the distal end (action part) of the surgical instrument can be specified. However, these surgical instruments are always sterilized and used repeatedly. On the other hand, since the marker group has an irregular structure and the marker part is difficult to remove, when attached to a surgical instrument, the marker group is likely to be disposable or removed and cleaned and sterilized separately.

図9では簡単に内視鏡手術に用いられる手術器具を紹介している。腹腔鏡13は先に説明したので、ここでは説明を省略する。広角腹腔鏡12は器具の挿入や吸引に使うホール12cが付いており、真っ直ぐな棒状の患部測定棒12pを入れる事ができる。鉗子14は、物をつかむ把持鉗子、組織を剥離する剥離鉗子、鋏の機能を持った鋏型鉗子などがあり、電気メスの機能が付属しているものもある。超音波凝固切開装置17は、電気エネルギーを超音波の振動に変換し、凝固・切開に利用する。先端部分を組織に接触させることで摩擦熱を発生させ、凝固(止血)しながら組織を切り離す事ができる。電気メス18は高周波電流を用いた電気メスである。モノポーラと呼ばれる1つの電極のものと、バイポーラと呼ばれる2つの電極のものがあり、特にバイポーラの場合には、小さな病変部などをピンポイントで焼灼することが可能となり、処置部分以外への熱損傷のリスクが抑えられる。   FIG. 9 briefly introduces surgical instruments used for endoscopic surgery. Since the laparoscope 13 has been described above, the description thereof is omitted here. The wide-angle laparoscope 12 is provided with a hole 12c used for instrument insertion and suction, and a straight rod-shaped affected part measuring rod 12p can be inserted. The forceps 14 include a grasping forceps for grasping an object, a peeling forceps for peeling a tissue, a scissors-type forceps having a scissor function, and the like, and some of which have a function of an electric knife. The ultrasonic coagulation / cutting device 17 converts electrical energy into ultrasonic vibration and uses it for coagulation / cutting. Friction heat is generated by bringing the tip portion into contact with the tissue, and the tissue can be separated while coagulating (hemostasis). The electric knife 18 is an electric knife using a high frequency current. There are one electrode called monopolar and two electrodes called bipolar. Especially in the case of bipolar, it becomes possible to cauterize small lesions etc. by pinpoint, and heat damage other than the treatment part Risk is reduced.

これらの手術器具には先に説明した通り、それぞれの手術器具が特定できる様に、マーカーの配置を少しずつ変えているマーカー群13e、14e、17e、18eを図10の様に適宜手術前に取り付ける事になる。但し、マーカー群12eについては広角腹腔鏡12自体に取り付けず、その付属の患部測定棒12pに取り付ける。取り付け位置については両面テープを介して、手術の邪魔にならない位置に取り付けられるので、取り付けた時点では、マーカー群と手術器具の先端(作用部)のローカル座標計測は行われていない。   As described above, the marker groups 13e, 14e, 17e, and 18e in which the arrangement of the markers is slightly changed so that each surgical instrument can be identified as described above are appropriately used before surgery as shown in FIG. It will be attached. However, the marker group 12e is not attached to the wide-angle laparoscope 12 itself, but attached to the attached diseased part measuring rod 12p. Since the attachment position is attached via a double-sided tape at a position that does not interfere with the operation, local coordinate measurement of the marker group and the tip (operating portion) of the surgical instrument is not performed at the time of attachment.

図11は本発明であるキャリブレーション架台19を用いた各手術器具のローカル座標計測の様子を示している。キャリブレーション架台19にはマーカー群23と作用部設置点20があり、そのローカル座標位置は予め計測されている。作用部設置点20は作用部の先が安定して設置できる様に少し窪んでいる。一方、トロッカー15に挿入する細い部分を支える支持台21には、安定して置ける様なV字状の切り込み22がある。   FIG. 11 shows a state of local coordinate measurement of each surgical instrument using the calibration stand 19 of the present invention. The calibration frame 19 includes a marker group 23 and an action portion installation point 20, and the local coordinate position is measured in advance. The action part installation point 20 is slightly depressed so that the tip of the action part can be stably installed. On the other hand, the support base 21 that supports the thin portion inserted into the trocar 15 has a V-shaped cut 22 that can be stably placed.

図11に示す様に、立てかけた手術工具は作用部設置点20の1点とV字状の切り込み部への円接点2点の計3点支持であり、安定して立てかけられる事になる。先端が鋏形状になっている超音波凝固切開装置17や電気メス18については、鋏を閉じた状態で計測が行われる。安定して置かれた段階で、前記モーションキャプチャー装置によりマーカー群12e、13e、14e、17e、18eとマーカー群23のワールド座標位置を記憶する。マーカー群23と作用部設置点20のローカル座標を差し引く事で、各手術器具の先端(作用部)のワールド座標位置が求められる事になる。   As shown in FIG. 11, the standing surgical tool is supported by three points in total, that is, one point of the action portion installation point 20 and two circular contact points to the V-shaped cut portion, and can be stood stably. For the ultrasonic coagulation / cutting device 17 and the electric scalpel 18 having a heel shape at the tip, measurement is performed with the heel closed. At the stage of being stably placed, the world coordinate positions of the marker groups 12e, 13e, 14e, 17e, 18e and the marker group 23 are stored by the motion capture device. By subtracting the local coordinates of the marker group 23 and the action part installation point 20, the world coordinate position of the tip (action part) of each surgical instrument is obtained.

図12で示す様に、広角腹腔鏡12を挿入した際に、臓器の全体画像を確認し、何処に患部(図では黒×印)があるかを確認する。図13(a)はその時の画像の見えであるが、画像の中心には予め○印24が表示される様になっているので、その○印24の中に患部が来るように広角腹腔鏡12の角度と位置を動かし、その場所で広角腹腔鏡12からホール12cに患部測定棒12pを患部に先端が達するまで挿入する。先端が○印24に入ったのを確認して、患部測定棒12pの先端部のワールド座標位置と画像を記憶する。即ち、患部測定棒12pの先端部が患部に接しているので、その座標が患部のワールド座標位置になる。   As shown in FIG. 12, when the wide-angle laparoscope 12 is inserted, the whole image of the organ is confirmed, and where the affected part (black x in the figure) is located is confirmed. FIG. 13A shows the appearance of the image at that time. Since a circle mark 24 is displayed in advance at the center of the image, a wide-angle laparoscope is placed so that the affected area comes within the circle mark 24. The angle and position of 12 are moved, and the affected part measuring rod 12p is inserted into the hole 12c from the wide-angle laparoscope 12 until the tip reaches the affected part. After confirming that the tip has entered the circle mark 24, the world coordinate position and the image of the tip of the affected part measuring rod 12p are stored. That is, since the tip of the affected part measuring rod 12p is in contact with the affected part, the coordinate becomes the world coordinate position of the affected part.

記憶された画像を図13に示しているが、既に記憶された画像であり、広角腹腔鏡12をトロッカー15から引き抜いてもモニター上には記憶画像が表示され続ける。次に、腹腔鏡13を挿入するが、既に腹腔鏡13の先端部(受光部)はワールド座標位置が求まっているので、その先端座標位置を図13では十字印で重畳表示する。その患部と腹腔鏡13の先端部(受光部)の位置はA(0,0,+5)の様に、位置の差分情報としても表示される。同様にして、例えば鉗子14や電気メス18を別のトロッカー15から挿入してもそれぞれ先端部は異なる模様の○印25や△印26で表示され、その患部と鉗子14、電気メス18の先端部の位置はそれぞれB(+30,+40,+20)、C(―20,+20,+10)の様に、位置の差分情報としても表示される。これらの印がほぼ円の中に入った時点で、図13の画像を腹腔鏡13で受光した画像図7(a)に切り替えれば、瞬時のアライメント時間だけで、全て挿入した手術器具をその狭い視野内で確認する事ができる。   Although the stored image is shown in FIG. 13, it is an already stored image, and the stored image continues to be displayed on the monitor even when the wide-angle laparoscope 12 is pulled out from the trocar 15. Next, the laparoscope 13 is inserted. Since the world coordinate position of the distal end portion (light receiving portion) of the laparoscope 13 has already been obtained, the distal end coordinate position is superimposed and displayed in FIG. The position of the affected part and the tip part (light receiving part) of the laparoscope 13 is also displayed as position difference information, as in A (0, 0, +5). Similarly, for example, even if the forceps 14 or the electric knife 18 is inserted from another trocar 15, the distal ends are displayed with differently marked circles 25 and Δ 26, respectively, and the affected area and the distal ends of the forceps 14 and the electric knife 18 are displayed. The position of each part is also displayed as position difference information, such as B (+30, +40, +20) and C (−20, +20, +10). When these marks are almost in the circle, the image shown in FIG. 13 is switched to the image received by the laparoscope 13 as shown in FIG. 7 (a). It can be confirmed within the field of view.

次に第4の形態について説明する。従来の技術で説明した(4)の段階では、図34の様に、感染症を防ぐ為、患部以外は無菌カバー31で覆い、更に透明シート32で患部が覆われる為、術中に患者に固定されたマーカー105を見る事ができなくなる。術中は色々な処置が行われるので、患者の位置が変わってしまう事が多いが、本発明によれば、透明シート32部分に第2マーカーが貼り付けられているので、術中でも第2マーカーにより患者の位置を確認する事が可能となり、重畳画像表示がズレない様に制御する事が可能となる。図14では分かり易い様に、患者100及び3点固定具104に対し、透明シート32と無菌カバー31、術作業の為の開口部31a、患部29(切開部分)及びマーカー30の大きさの関係が判る様に長方形で全て示している。   Next, a fourth embodiment will be described. In the stage of (4) explained in the prior art, as shown in FIG. 34, in order to prevent infectious diseases, other than the affected part is covered with a sterile cover 31, and further, the affected part is covered with a transparent sheet 32, so that it is fixed to the patient during the operation. It becomes impossible to see the marked marker 105. Since various treatments are performed during the operation, the position of the patient is often changed. However, according to the present invention, the second marker is attached to the transparent sheet 32, so that the second marker can be used even during the operation. The position of the patient can be confirmed, and control can be performed so that the superimposed image display is not shifted. For easy understanding in FIG. 14, the relationship between the size of the transparent sheet 32, the aseptic cover 31, the opening 31 a for the surgical operation, the affected part 29 (incision part), and the marker 30 with respect to the patient 100 and the three-point fixture 104. As you can see, everything is shown as a rectangle.

まず、無菌カバー31で患者100を覆う前に、第1から第2の形態を用いてレジストレーションを実施する。この時点では重畳表示は問題無く行われている。次に、患部29の近傍にマーカー30を貼り付ける。第1から第2の形態で用いたカメラを使って、マーカー30の位置を画像認識する。既にマーカー群105とMRI重畳画像9のローカル座標は求まっているので、第2マーカー30とマーカー群105とのローカル座標が求まれば、マーカー30とMRI画像9のローカル座標も求まる事になる。即ち、マーカー30は患者100の頭部に貼り付けられているので、マーカー30のローカル座標変動量を調べ補正する事で、MRI画像9と患者100の頭部画像を正確に重畳表示する事ができる。   First, before covering the patient 100 with the aseptic cover 31, registration is performed using the first and second embodiments. At this time, the superimposed display is performed without any problem. Next, the marker 30 is pasted in the vicinity of the affected part 29. Using the cameras used in the first to second embodiments, the position of the marker 30 is recognized as an image. Since the local coordinates of the marker group 105 and the MRI superimposed image 9 have already been obtained, if the local coordinates of the second marker 30 and the marker group 105 are obtained, the local coordinates of the marker 30 and the MRI image 9 are also obtained. That is, since the marker 30 is affixed to the head of the patient 100, the MRI image 9 and the head image of the patient 100 can be accurately superimposed and displayed by examining and correcting the local coordinate fluctuation amount of the marker 30. it can.

第2のマーカーであるが、ここでは最も知られている図15(a)に示す様なARマーカーを使っている。ARマーカーとは方形の黒枠で囲われた中に、何かしらのパターンが描かれているものを指し、正方形である事、基本は黒枠、内部の白領域の割合が、1 : 2 : 1になる事、枠線は変更可能だが、一般的に黒枠と白領域の割合は、3 : 14 : 3が最低ラインになる事、黒枠でマーカーの検出を行ない、白領域内のパターンに応じてマーカーを判別する事、白領域内のパターンは、点対称・線対称を避け、デザイン部分に細い線を用いない事等がルールとして決められている。   As the second marker, here, the most known AR marker as shown in FIG. 15A is used. The AR marker refers to a pattern with some pattern drawn in a square black frame. It must be square. Basically, it has a black frame and the ratio of the white area inside is 1: 2: 1. Although the border can be changed, in general, the ratio of black frame to white area is 3: 14: 3, the lowest line is detected, the marker is detected with the black frame, and the marker is set according to the pattern in the white area. As a rule, it is determined that the pattern in the white region avoids point symmetry and line symmetry and does not use thin lines in the design portion.

これを画像として取り込み、画像処理する事でパターンファイル化する。パターンファイルとは、マーカーから作成するデータファイルで、例えば白領域内の画像を解像度4×4であるならば、全体を16分割して数値化する。基本数値は縦横ともに16を指定する。その後、しきい値に従って白黒の2値画像に変換し、更にその白黒画像を反転させてから、白い四角形の枠とその内部を切り出し、四角形から黒枠の割合分内側の四角形を切り出す。切り出した四角形とパターンファイルの値を比較し、一致率を算出して画像認識を行う手法である。解像度を上げることにより細かいパターンであっても認識率が上がるが、負荷も高くなる。また、ARマーカーを複数個配置すれば、平均化効果により計測精度は向上する。   This is captured as an image and processed into an image to create a pattern file. A pattern file is a data file created from markers. For example, if an image in a white area has a resolution of 4 × 4, the whole is divided into 16 and digitized. Specify 16 for the basic numerical value. After that, the image is converted into a black and white binary image according to the threshold value, and the black and white image is inverted. Then, the white rectangular frame and the inside thereof are cut out, and the inner square is cut out from the square by the proportion of the black frame. This is a technique for comparing the cut rectangle and the value of the pattern file, calculating the coincidence rate, and performing image recognition. Increasing the resolution increases the recognition rate even for fine patterns, but also increases the load. If a plurality of AR markers are arranged, the measurement accuracy is improved due to the averaging effect.

図17では、患部29とマーカー30が開口部31aから露出する様に無菌カバー31を位置合わせし、それ以外の患者100と3点固定具104、マーカー群105は完全に無菌カバー31で覆い、更に透明シート32で患部とマーカー30が覆われる様子を示している。マーカー群105が隠れてしまうので、モーションキャプチャー用センサー部1による患者100の頭部位置検出はできなくなるが、患者100の頭部の位置がドリフトしても、カメラを用いて透明シート32上で透けて見えるマーカー30のローカル座標値の変動を調べ、補正する事で、MRI画像9と患者100の頭部画像を正確にモニター上に重畳表示する事ができる。   In FIG. 17, the sterile cover 31 is aligned so that the affected area 29 and the marker 30 are exposed from the opening 31a, and the other patient 100, the three-point fixture 104, and the marker group 105 are completely covered with the sterile cover 31. Further, the state where the affected part and the marker 30 are covered with the transparent sheet 32 is shown. Since the marker group 105 is hidden, the position of the head of the patient 100 cannot be detected by the motion capture sensor unit 1, but even if the position of the head of the patient 100 drifts, the camera 100 is used on the transparent sheet 32. By examining and correcting the fluctuation of the local coordinate value of the marker 30 that can be seen through, the MRI image 9 and the head image of the patient 100 can be accurately superimposed and displayed on the monitor.

尚、今回はARマーカーを例にしたが、ARマーカーは本来、画像認識用に使われ、位置精度自体はそれ程高くない。元々、術中に患者100の頭部が動いてしまう量はそれ程大きくないので、ARマーカーの代わりに図15(b)の様な黒枠の大きな正方形パターンを用いても良い。このパターンを2次元画像データとして取り込み、点線の様に分割して分割領域毎に縦及び横に加算処理する事で、1次元データX1,X2,Y1,Y2を形成する。黒枠部分のスロープ信号を検出し、そのそれぞれのスロープ位置を解析する事で、x,yのシフト量は勿論、回転量、ピッチング、ローリング誤差まで精度良く検出する事が可能となる。パターンが単純なので、画像認識には不向きだが、ある程度パターンの位置が定まっている状況(患者100の頭部ドリフトの量が小さい条件)ならば、加算処理する事で、平均化効果の高いこのパターンの方が高い精度で重畳表示状態を維持する事ができる。   Although the AR marker is taken as an example this time, the AR marker is originally used for image recognition and the position accuracy itself is not so high. Originally, the amount of movement of the head of the patient 100 during the operation is not so large, and a large square pattern with a black frame as shown in FIG. 15B may be used instead of the AR marker. One-dimensional data X1, X2, Y1, and Y2 are formed by taking in this pattern as two-dimensional image data, dividing it like a dotted line, and performing vertical and horizontal addition processing for each divided region. By detecting the slope signal of the black frame portion and analyzing each slope position, it is possible to accurately detect not only the shift amount of x and y but also the rotation amount, pitching, and rolling error. Since the pattern is simple, it is not suitable for image recognition, but in a situation where the position of the pattern is fixed to some extent (a condition where the amount of head drift of the patient 100 is small), this pattern with high averaging effect can be obtained by performing addition processing. It is possible to maintain the superimposed display state with higher accuracy.

更に、第5の形態だが、第4の形態で用いた第2マーカーは平面上に形成されるので、その平面に並行な方向の計測精度は高いものの、それと直交する方向の計測精度は劣化する。本来は立体的に形成されたマーカー群34を、複数のモーションキャプチャー用センサー部1を用いて計測する方が精度は高い。そこで第5形態では第2マーカーの代わりにマーカー群34を取り付けるコネクタ部33を貼り付け、必要に応じてそのコネクタ部33にマーカー群34を取り付け、術中でも複数のモーションキャプチャー用センサー部1を用いて患者100の頭部位置を正確に再計測できる様にしている。コネクタ部33の凸部33bに精度良い公差で作られた凹部34bがあり、所定の方向のみに再現性良く脱着ができる様になっている。   Furthermore, in the fifth embodiment, since the second marker used in the fourth embodiment is formed on a plane, the measurement accuracy in the direction parallel to the plane is high, but the measurement accuracy in the direction orthogonal thereto is deteriorated. . The accuracy is higher when the marker group 34 originally formed in a three-dimensional manner is measured using the plurality of motion capture sensor units 1. Therefore, in the fifth embodiment, a connector portion 33 for attaching the marker group 34 is attached instead of the second marker, and the marker group 34 is attached to the connector portion 33 as necessary, and a plurality of motion capture sensor portions 1 are used even during the operation. Thus, the head position of the patient 100 can be accurately re-measured. The convex portion 33b of the connector portion 33 has a concave portion 34b made with high precision tolerance so that it can be attached and detached with good reproducibility only in a predetermined direction.

図16では、無菌カバー31で患者100を覆う前に、第1から第2の形態を用いてレジストレーションを実施する。この時点では重畳表示は問題無く行われている。次に、患部29の近傍にコネクタ部33を貼り付け、マーカー群34を取り付ける。複数のモーションキャプチャー用センサー部1を用いてマーカー群105とコネクタ部33に取り付けたマーカー群34のワールド座標位置を計測すると、既にマーカー群105とMRI重畳画像9のローカル座標値は求まっているので、マーカー群34とMRI重畳画像9のローカル座標値が求められる。   In FIG. 16, before covering the patient 100 with the aseptic cover 31, registration is performed using the first and second forms. At this time, the superimposed display is performed without any problem. Next, the connector part 33 is affixed in the vicinity of the affected part 29, and the marker group 34 is attached. When the world coordinate positions of the marker group 105 and the marker group 34 attached to the connector unit 33 are measured using a plurality of motion capture sensor units 1, the local coordinate values of the marker group 105 and the MRI superimposed image 9 have already been obtained. The local coordinate values of the marker group 34 and the MRI superimposed image 9 are obtained.

コネクタ部33からマーカー群34を取り外し、無菌カバー31で覆い、透明シート32をコネクタ部33の上から貼るが、コネクタ部33にはマーカー群34を取り付ける凸部33bと、広い貼り付け面積を持つ平面部33aが存在する。透明シート32をコネクタ部33の上から貼ると、点線で示した様な凸部33b空洞部分が平面部33aに発生する。この点線に沿って、透明シート32を切り取ると、凸部33bが露出する。但し、点線32aまでは平面部33aと透明シート32の粘着裏面がしっかり粘着されているので、裏側の菌が術中に表面に露出する様な不具合は発生しない。   The marker group 34 is removed from the connector part 33, covered with a sterile cover 31, and the transparent sheet 32 is pasted from above the connector part 33. The connector part 33 has a convex part 33b for attaching the marker group 34 and a wide pasting area. There is a flat surface portion 33a. When the transparent sheet 32 is pasted from above the connector portion 33, a convex portion 33b hollow portion as shown by a dotted line is generated in the flat portion 33a. When the transparent sheet 32 is cut along the dotted line, the convex portion 33b is exposed. However, since the flat part 33a and the adhesive back surface of the transparent sheet 32 are firmly adhered to the dotted line 32a, there is no problem that the bacteria on the back side are exposed to the surface during the operation.

図18では、患部29とコネクタ部33が開口部31aから露出する様に無菌カバー31を位置合わせし、それ以外の患者100と3点固定具104、マーカー群105は完全に無菌カバー31で覆い、更に透明シート32で患部とマーカー30が覆われた後に、コネクタ部33の凸部33b部分を含む点線32aで切り取り、凸部33bを露出させている様子を示している。マーカー群105が隠れてしまうので、モーションキャプチャー用センサー部1による患者100の頭部位置検出はできなくなるが、患者100の頭部の位置がドリフトしても、凸部33bにマーカー群34を取り付け、複数のモーションキャプチャー用センサー部1を用いてマーカー群34の変動量を調べ、補正する事で、MRI画像9と患者100の頭部画像を正確にモニター上に重畳表示する事ができる。   In FIG. 18, the aseptic cover 31 is aligned so that the affected part 29 and the connector part 33 are exposed from the opening 31a, and the other patient 100, the three-point fixture 104, and the marker group 105 are completely covered with the aseptic cover 31. In addition, after the affected part and the marker 30 are further covered with the transparent sheet 32, it is cut along a dotted line 32a including the convex part 33b portion of the connector part 33 to expose the convex part 33b. Since the marker group 105 is hidden, the head position of the patient 100 cannot be detected by the motion capture sensor unit 1, but the marker group 34 is attached to the convex portion 33b even if the position of the head of the patient 100 drifts. The MRI image 9 and the head image of the patient 100 can be accurately superimposed and displayed on the monitor by examining and correcting the fluctuation amount of the marker group 34 using the plurality of motion capture sensor units 1.

次の図19では第5の形態を別の方法で実現している。患部29の近傍は手術の際に重要な領域であり、そこにマーカー30やコネクタ部33を取り付ける事は難しい場合がある。そこで図19では患部29から離れた頭部を切開し、頭蓋骨にネジ穴を掘り、もう少し強度の高いコネクタ部35を埋め込んでいる。患者100全体は無菌カバー31で覆われているので、そのコネクタ部35に接続できるアーム部36を差し込み、無菌カバーの外側で、且つ手術の邪魔にならない位置までリレーする。その先端にコネクタ部としてマーカー群37を取り付けられる様にしている。設置自体は、ほとんど時間のかからない処理であり、設置の間、アーム部を人が支える事で、ネジ穴を掘った頭蓋骨部分に負荷は発生しない。   In FIG. 19, the fifth mode is realized by another method. The vicinity of the affected area 29 is an important area at the time of surgery, and it may be difficult to attach the marker 30 and the connector section 33 there. Therefore, in FIG. 19, the head away from the affected area 29 is incised, a screw hole is dug in the skull, and the connector part 35 having a slightly higher strength is embedded. Since the entire patient 100 is covered with the aseptic cover 31, an arm part 36 that can be connected to the connector part 35 is inserted, and relayed to a position outside the aseptic cover and without interfering with the operation. A marker group 37 is attached to the tip as a connector portion. The installation itself is a process that takes almost no time. During installation, the arm is supported by a person so that no load is generated on the skull part where the screw hole is dug.

次に重畳表示の方法であるが、術中に重畳表示した画像を見る為には、画像入力部と画像出力部が必要となる。図20は画像入力部を有する手術用器具であり、腹腔鏡13のCCDカメラ、タブレット4の内蔵カメラ、手術記録用ビデオカメラ110、手術用顕微鏡38の記録用カメラ等がある。一方、図21は画像出力部を有する手術用器具であり、手術用ヘッドマウントディスプレイ39、タブレット4、PCモニター111等である。   Next, as a superimposition display method, an image input unit and an image output unit are required in order to view an image superimposed and displayed during the operation. FIG. 20 shows a surgical instrument having an image input unit, which includes a CCD camera of the laparoscope 13, a built-in camera of the tablet 4, a video camera 110 for surgical recording, a recording camera for the surgical microscope 38, and the like. On the other hand, FIG. 21 shows a surgical instrument having an image output unit, which includes a surgical head mounted display 39, a tablet 4, a PC monitor 111, and the like.

画像合成装置を用いて、MRIから得た3D画像と前記画像入力部から得られた画像データをモーションキャプチャー装置の結果に応じて重畳表示するが、図22が第6の形態の実施例を装着した時の斜視図であり、図23が第6の形態の実施例の側面図である。ケプラー式(拡大倍率4〜6)のルーペ部(ガリレオ式双眼ルーペタイプでも可)42と、対物レンズ部44が画像合成部45により接合された構造である。ルーペ部の合焦点と対物レンズ44の先に取り付けられた2次元画像表示用液晶部43と眼の網膜が共役な位置にあり、右眼と左眼用に一対で構成されている。これらの光学部分を脱着部41で保持しており、取り付け可能なメガネ型固定部112に着脱部41をコネクトする事で、この画像出力装置40全体が安定して両目の位置に位置合わせできる構成になっている。また、脱着部41には一対の内蔵カメラ63も設置されており、そこで得られた情報は、2次元画像表示用液晶部43にて表示する事が可能である。   Using the image composition device, the 3D image obtained from MRI and the image data obtained from the image input unit are superimposed and displayed according to the result of the motion capture device. FIG. 22 shows the sixth embodiment. FIG. 23 is a side view of an embodiment of the sixth mode. This is a structure in which a Kepler type (magnification 4 to 6) magnifying part (also a Galileo binocular loupe type) 42 and an objective lens part 44 are joined by an image synthesizing part 45. The in-focus point of the loupe unit, the two-dimensional image display liquid crystal unit 43 attached to the tip of the objective lens 44 and the retina of the eye are in a conjugate position, and are configured as a pair for the right eye and the left eye. A configuration in which these optical portions are held by the detachable portion 41, and the entire image output device 40 can be stably positioned at the positions of both eyes by connecting the detachable portion 41 to the spectacle-type fixing portion 112 that can be attached. It has become. In addition, a pair of built-in cameras 63 are also installed in the detachable section 41, and information obtained there can be displayed on the two-dimensional image display liquid crystal section 43.

また、ルーペ部とメガネ型固定部112の重量だけでも70〜90gあり、対物レンズ部44が画像合成部45、2次元画像表示用液晶部43を全て合わせると装重量は200g程度となる。これをメガネと同様に耳と鼻の横で支えるのは厳しい。そこでこの画像出力装置40では着脱部41に形状記憶合金で作られた弾性棒60が取り付けられており、頭の頭部にある支持面58から出た支点部59を支点として画像出力装置40の重量とバランサー61が「やじろべえ」の様な形で釣り合い、バランスが保たれている。弾性棒60と支点の位置、バランサー61の位置や重さは微調整ができる構造であり、メガネと同等の数十g程度の重量を残す形でバランスを取れば、顔の動きに異存せず、安定して装着し続ける事が可能となる。   Further, the weight of the loupe unit and the glasses-type fixing unit 112 alone is 70 to 90 g, and when the objective lens unit 44 is combined with the image synthesizing unit 45 and the two-dimensional image display liquid crystal unit 43, the weight is about 200 g. It is difficult to support this beside the ears and nose as with glasses. Therefore, in this image output device 40, an elastic rod 60 made of a shape memory alloy is attached to the detachable portion 41, and the fulcrum portion 59 protruding from the support surface 58 on the head of the head is used as a fulcrum. The balance between the weight and the balancer 61 is maintained in the form of “Yajirobe”. The position of the elastic bar 60 and the fulcrum, and the position and weight of the balancer 61 can be finely adjusted. It becomes possible to keep wearing it stably.

この構造だと、支点部59の下にある支持面58に全ての重量がかかってくるが、バランサーの重量を合わせても工事用ヘルメット程度の重さであり、支持面58の面積が広いので、頭部全体で重量を支える事になる。双眼ルーペやヘッドマウントディスプレイの様なバランスの偏りや締め付けによる不快感は無く、手術でも長時間装着する事ができる。
また、図23に示す様に、通常の双眼ルーペと同様に、コネクタ部を折り曲げる事で、双眼ルーペと同様に、眼の視線からルーペ部42を退避させる事ができ、広い視界(裸眼若しくはメガネ)で手術を継続する事も可能である。
With this structure, all the weight is applied to the support surface 58 under the fulcrum 59, but even if the weight of the balancer is combined, it is as heavy as a construction helmet and the area of the support surface 58 is large. The whole head will support the weight. There is no discomfort due to imbalance or tightening like a binocular loupe or head-mounted display, and it can be worn for a long time even during surgery.
Further, as shown in FIG. 23, like a normal binocular loupe, by folding the connector part, the loupe part 42 can be retracted from the line of sight of the eye as in the binocular loupe, and a wide field of view (naked eye or glasses) is obtained. ) To continue the surgery.

装着方法であるが、まず画像出力装置40をメガネ型固定部112に取り付け、メガネをかける様に片手で顔面前に装着する。次に通常は手術帽をかぶっているので、もう一方の片手で支持面58を引き上げ、画像出力装置40の重量感がほぼ無くなる位置で、支持面58の裏側に付けた粘着部を手術帽に押し当て手術帽に取り付ける。その上で、支点棒59の位置とバランサー61の位置を微調整する事で、伸ばした状態と折り曲げた状態の両方でしっくりする状態を確認すれば良い。   First, the image output device 40 is attached to the glasses-type fixing unit 112, and is worn in front of the face with one hand as if wearing glasses. Next, since the surgical cap is usually worn, the support surface 58 is pulled up with the other hand, and the adhesive portion attached to the back side of the support surface 58 is attached to the surgical cap at a position where the weight feeling of the image output device 40 is almost eliminated. Attach to the pressing surgical cap. Then, by finely adjusting the position of the fulcrum bar 59 and the position of the balancer 61, it is only necessary to confirm a state that fits in both the extended state and the bent state.

画像出力装置40の脱着部41にはマーカー群34も取り付けてあるので、レジストレーションを行う事ができる。レジストレーションにより内蔵カメラ63からの画像とMRIから得た3D画像を重畳画像として2次元画像表示用液晶部43に表示すれば、第1及び第5の形態を実施するのに必要な条件が全て整っている。更に、内蔵カメラ63をディプスカメラ6に変更すれば、第2の形態を実施する事も可能となる。内蔵カメラ63によりARマーカーを検出できる様にする事で、第4の形態を実施する事もできる。   Since the marker group 34 is also attached to the attachment / detachment portion 41 of the image output device 40, registration can be performed. If the image from the built-in camera 63 and the 3D image obtained from the MRI are displayed as a superimposed image on the two-dimensional image display liquid crystal unit 43 by registration, all the conditions necessary for carrying out the first and fifth embodiments are obtained. organized. Furthermore, if the built-in camera 63 is changed to the depth camera 6, the second embodiment can be implemented. By allowing the built-in camera 63 to detect the AR marker, the fourth embodiment can be implemented.

更には、腹腔鏡13のCCDカメラからの映像と手術器具の先端部情報を重畳画像として2次元画像表示用液晶部43に表示すれば、第3の形態を実施する事もできる。但し、この場合は、ルーペ部42の見えは邪魔になる。画像出力装置40は図25、図26に示す様に、合成ミラー(ハーフミラー)45とルーペ部44の間に出し入れ可能な遮蔽板46が配置されている。内視鏡手術の様に腹腔鏡13のCCDカメラからの映像のみ見たい場合は、図26の様に遮蔽板46を挿入する。分割ミラーを偏光ミラーとし、46の部分に透過型液晶素子を入れても良い。偏光ミラーの透過光はP偏光であり、2次元画像表示用液晶部43から来る画像はS偏光なので、透過型液晶素子部で電気的にP偏光を遮蔽すれば同様の事ができる。一方、ルーペ部42の見えのみ見たい時は、2次元画像表示用液晶部43の画像をoffし、図25の様に遮光板46を退避させてば良い。透過型液晶素子部を使う場合は、電気的にP偏光を透過する様にすれば良い。   Furthermore, if the video from the CCD camera of the laparoscope 13 and the tip information of the surgical instrument are displayed on the two-dimensional image display liquid crystal unit 43 as a superimposed image, the third embodiment can be implemented. However, in this case, the appearance of the loupe unit 42 is obstructive. As shown in FIGS. 25 and 26, the image output device 40 is provided with a shield plate 46 that can be inserted and removed between a composite mirror (half mirror) 45 and a loupe unit 44. When it is desired to view only the image from the CCD camera of the laparoscope 13 as in the case of endoscopic surgery, a shielding plate 46 is inserted as shown in FIG. The split mirror may be a polarizing mirror, and a transmissive liquid crystal element may be placed in the 46 portion. Since the transmitted light of the polarizing mirror is P-polarized light and the image coming from the liquid crystal unit 43 for two-dimensional image display is S-polarized light, the same can be done if the P-polarized light is electrically shielded by the transmissive liquid crystal element unit. On the other hand, when only the appearance of the loupe unit 42 is desired to be seen, the image of the two-dimensional image display liquid crystal unit 43 is turned off and the light shielding plate 46 is retracted as shown in FIG. In the case of using a transmissive liquid crystal element portion, it is sufficient to electrically transmit P-polarized light.

またこの画像出力装置40は、ルーペ部42から実際の術中の状態を観察できるので、その見えに2次元画像表示用液晶部43の画像を重畳表示する事も可能である。この使用法に関しては、別途レジストレーション作業が必要となる。一対のルーペ42の間隔と、一対で配置された内蔵カメラ63の間隔はほぼ等しいので、これらを重畳表示すると、ハーフミラーで両方の画像が見える。ルーペ部42の視界中心を見た場合、内蔵カメラの視界の中心と並行になる様に設計されており、その見えや倍率が合う様に2次元画像表示用液晶部43の画像の位置及び倍率を調整する。見えが一致すればレジストレーション作業は終了する。   In addition, since the image output device 40 can observe the actual intraoperative state from the loupe unit 42, the image of the liquid crystal unit 43 for two-dimensional image display can be superimposed on the appearance. For this usage, a separate registration work is required. Since the interval between the pair of loupes 42 and the interval between the built-in cameras 63 arranged in a pair are substantially equal, when these are superimposed and displayed, both images can be seen by the half mirror. When the view center of the loupe unit 42 is viewed, it is designed to be parallel to the view center of the built-in camera, and the position and magnification of the image on the liquid crystal unit 43 for two-dimensional image display are matched so that its appearance and magnification match. Adjust. If the appearances match, the registration work ends.

最後に残るのが、高度な手術で二人観察用の手術用顕微を用いる場合である。第一執刀医と第二執刀医の二人が同時に患部の立体像を見る事ができ、更には重畳表示画像を同時に見る事ができれば、効率良く安全なナビゲーションが可能となる。   The last thing to do is when using a surgical microscope for two-person observation in advanced surgery. If the first surgeon and the second surgeon can see the three-dimensional image of the affected area at the same time, and can see the superimposed display image at the same time, efficient and safe navigation is possible.

図27(a)〜(b)が第7の形態における実施例であり、(a)が正面図であり、(b)が側面図である。LED照明62の光が観察ターゲットTを照射すると、ターゲットTからの拡散反射光は所定の傾きを持った光束として偏向レンズ48を介して平行光束となる。その後、ズーム光学系49、対物・フォーカス調整レンズ50を経てターゲットTの像は2次元CCD51上に投影される。これは偏向レンズ48での光束の間隔は人の両目の間隔である62mm近傍に設定されており、両目を偏向レンズ48の位置に置いてターゲットTを見た時の立体視とほぼ同じ条件である。   27 (a) to 27 (b) are examples in the seventh embodiment, (a) is a front view, and (b) is a side view. When the light of the LED illumination 62 irradiates the observation target T, the diffuse reflected light from the target T becomes a parallel light flux through the deflecting lens 48 as a light flux having a predetermined inclination. Thereafter, the image of the target T is projected onto the two-dimensional CCD 51 through the zoom optical system 49 and the objective / focus adjustment lens 50. This is because the distance between the light beams in the deflection lens 48 is set to be 62 mm, which is the distance between the eyes of the person, and the stereoscopic vision when viewing the target T with both eyes positioned at the deflection lens 48 is almost the same. is there.

即ち、2次元CCD51の画像を、例えば第6の形態で説明したヘッドマウントディスプレイ型の画像表示装置40で見ると、両目を偏向レンズ48の位置に置いてターゲットTを見ながら手術を行っているのとほぼ同等の条件となる。2次元CCD51の画像は電気的に分配可能なので、ヘッドマウントディスプレイ型の画像表示装置を装着している人全てが同一条件で立体画像を見る事が可能となる。   That is, when the image of the two-dimensional CCD 51 is viewed on, for example, the head mounted display type image display device 40 described in the sixth embodiment, the operation is performed while looking at the target T with both eyes placed at the position of the deflection lens 48. The conditions are almost equivalent to. Since the image of the two-dimensional CCD 51 can be electrically distributed, all persons wearing a head mounted display type image display device can view a stereoscopic image under the same conditions.

更に、この立体顕微鏡47には紙面の左右をX軸、上下をY軸、奥行をZ軸とした場合、LMブロック53b1対が設置されており、Z軸周り回転ステージ53c上にあるLMレール53a上で、ターゲットTを回転中心として、立体顕微鏡47がX軸周りに回転可能な様に支持され、Rガイドを形成している。また、Z軸周り回転ステージ53c上にはLMブロック52b1対が設置されており、X軸移動ステージ54X上にあるLMレール52a上で、ターゲットTを回転中心として、Z軸周りに回転可能な様に支持され、Rガイドを形成している。この2つのガイドにより、立体顕微鏡47はターゲットTを回転中心として、X軸周り及びZ軸周りに回転できる構成である。   Further, in this stereoscopic microscope 47, when the left and right sides of the paper surface are the X axis, the top and bottom are the Y axis, and the depth is the Z axis, an LM block 53b1 pair is installed, and the LM rail 53a on the rotation stage 53c around the Z axis Above, the stereo microscope 47 is supported so as to be rotatable around the X axis with the target T as the rotation center, thereby forming an R guide. In addition, an LM block 52b1 pair is installed on the Z-axis rotation stage 53c, and can rotate about the Z-axis around the target T on the LM rail 52a on the X-axis movement stage 54X. To form an R guide. With these two guides, the stereoscopic microscope 47 can rotate around the X axis and the Z axis with the target T as the rotation center.

更に、X軸移動ステージ54X上にはリニアガイドが配置されており、ベース部54上のリニアレールに支持されている。ベース部54は執刀医の邪魔にならない様に、作業領域と立体顕微鏡47の支持部を分離する為の延長棒55に支持されており、延長棒55にはZ方向移動軸56が固定されており、支持軸57に対してリニアガイドによりZ軸方向に移動が可能となっている。   Further, a linear guide is disposed on the X-axis moving stage 54X and supported by a linear rail on the base portion 54. The base portion 54 is supported by an extension rod 55 for separating the work area and the support portion of the stereoscopic microscope 47 so as not to obstruct the surgeon. A Z-direction moving shaft 56 is fixed to the extension rod 55. The support shaft 57 can be moved in the Z-axis direction by a linear guide.

それぞれのガイド部には駆動装置及びエンコーダが取り付けられており、ターゲットTを回転中心とした任意のX軸周り及びZ軸周りでの回転と、X軸方向及びZ軸方向に立体顕微鏡47を移動できる構成である。尚、支持軸57は作業領域外に設置された、移動型立体顕微鏡支持部(図示せず)により支持されているが、術台上に立体顕微鏡を設置する為の、各方向に駆動可能なZ方向駆動部、Y軸周り回転駆動部、車輪等が搭載されている。   A driving device and an encoder are attached to each guide part, and the stereoscopic microscope 47 is moved in the X-axis direction and the Z-axis direction by rotating around any X axis and Z axis around the target T as the rotation center. It is a possible configuration. The support shaft 57 is supported by a movable stereomicroscope support unit (not shown) installed outside the work area, but can be driven in each direction for installing the stereomicroscope on the operating table. A Z-direction drive unit, a Y-axis rotation drive unit, wheels, and the like are mounted.

画像表示装置40はヘッドマウントディスプレイ型なので、任意の位置で画像を見る事が可能である。但し、執刀医が手術を行う時はターゲットTの位置に患者100の患部があるので、指先はその位置で作業を行う必要がある。よって、立体顕微鏡47と画像表示装置40の位置関係は図28(a)〜(b)の様になる。(a)が正面からの様子で、(b)が側面からの様子を示している。ここで偏向レンズ48とターゲットTの間隔をLとすると、執刀医は最も楽な視線状態(通常は20〜30度下を向いた状態)で仮想ターゲットがその視線でL離れたTTという事になる。この眼とTTの方向が画像表示装置40の中でのZ軸方向となり、それに応じてX軸及びY軸の角度も決定され、これがバーチャル空間での座標軸Bとなる。   Since the image display device 40 is a head-mounted display type, an image can be viewed at an arbitrary position. However, when the surgeon performs an operation, the affected part of the patient 100 is at the position of the target T, and the fingertip needs to work at that position. Therefore, the positional relationship between the stereoscopic microscope 47 and the image display device 40 is as shown in FIGS. (A) is a front view, and (b) is a side view. Here, if the distance between the deflection lens 48 and the target T is L, the surgeon will say that the virtual target is TT that is L away from the line of sight in the most comfortable line-of-sight state (usually 20-30 degrees downward). Become. The direction of the eyes and TT is the Z-axis direction in the image display device 40, and the angles of the X-axis and the Y-axis are determined accordingly, and this is the coordinate axis B in the virtual space.

執刀医はその座標軸上でTTの位置に患者100の患部を見ている事になるので、術中も顔を向けた方向と同様の方向に立体顕微鏡47を制御する事で、執刀医は現実の視線に応じて患部を見る事ができるので、作業の効率及び安全性を高めるだけでなく、バーチャル酔いを防止するという効果もある。図29(a)〜(b)は通常の執刀医の顔の動かし方を示している。仮想ターゲットTTに対し、座標軸B基準のZ軸周りと横の移動は、立体顕微鏡47の図29(a)の紙面に沿った回転と紙面に沿った横シフトとなるので、Z軸周り回転ステージ53cのZ軸周り回転駆動と、X軸移動ステージ54XのX駆動のみで対応できる。   Since the surgeon sees the affected part of the patient 100 at the position of TT on the coordinate axis, the surgeon can control the stereoscopic microscope 47 in the same direction as the direction of the face during the operation. Since the affected part can be seen according to the line of sight, not only the efficiency and safety of the work are improved, but also the effect of preventing virtual sickness. FIGS. 29A and 29B show how to move a normal surgeon's face. The horizontal movement around the Z axis with reference to the coordinate axis B with respect to the virtual target TT is a rotation along the paper surface of FIG. 29A and a lateral shift along the paper surface of the stereoscopic microscope 47, and therefore a rotation stage around the Z axis. The rotation around the Z axis of 53c and the X drive of the X axis moving stage 54X can be handled only.

また、仮想ターゲットTTに対し、座標軸B基準のX軸周りと縦の移動は、立体顕微鏡47の図29(b)の紙面に沿った回転と紙面に沿った縦シフトとなるので、体顕微鏡47のX軸周り回転駆動と、Z方向移動軸56のZ駆動のみで対応できる。それぞれの駆動系は独立に制御できるので、顔の動きに応じてスムーズな立体顕微鏡47の駆動制御が可能となる。顔を仮想ターゲットに近づけたり、遠ざける動作については、ズーム光学系を制御する事で、倍率自体を可変させる。   Further, the vertical movement around the X axis with reference to the coordinate axis B with respect to the virtual target TT is a rotation along the paper surface of FIG. 29B and a vertical shift along the paper surface of the stereoscopic microscope 47, and thus the body microscope 47. The rotation around the X axis and the Z drive of the Z-direction moving shaft 56 can be handled. Since each drive system can be controlled independently, smooth drive control of the stereoscopic microscope 47 can be performed according to the movement of the face. For the operation of moving the face closer to or away from the virtual target, the magnification itself is varied by controlling the zoom optical system.

顔の動きは画像表示装置40に設置されたマーカー群34の動きを複数のモーションキャプチャー用センサー部1を用いて計測し、座標軸B基準に対する変動位置と変動角度に応じて立体顕微鏡47を駆動制御すれば良い。また、立体顕微鏡47にマーカー群を設置し、それも複数のモーションキャプチャー用センサー部1を用いて計測する事で、立体顕微鏡47が想定通りに駆動したかをフィードバック制御する事も可能である。尚、今回は画像表示装置40を用いたが、無論、通常の手術用ヘッドマウントディスプレイ39を用いても同様の事が可能となる。   For the movement of the face, the movement of the marker group 34 installed in the image display device 40 is measured using a plurality of motion capture sensor units 1, and the stereoscopic microscope 47 is driven and controlled according to the fluctuation position and fluctuation angle with respect to the coordinate axis B reference. Just do it. It is also possible to feedback control whether or not the stereoscopic microscope 47 is driven as expected by installing a marker group in the stereoscopic microscope 47 and measuring it using a plurality of motion capture sensor units 1. Although the image display device 40 is used this time, it goes without saying that the same thing can be achieved by using a normal surgical head mounted display 39.

立体顕微鏡47の画像を画像表示装置40で見る場合の重畳表示についてであるが、立体顕微鏡47にマーカー群を設置すれば、元々2次元CCD51が内蔵カメラの役割を果たすので、シフト及び回転に関するレジストレーションは第3〜第5の形態の発明を用いて計測可能である。但し、立体顕微鏡47にはズーム光学系49が搭載されており、画像の倍率をズーム光学系49により変化させた場合は、マーカー群を用いた重畳表示制御ができない。この場合は、ターゲットT近傍に配置した第4の形態で用いたARマーカーを2次元CCD51にて確認し、倍率や位置変化を補正する事で、安定した重畳表示が可能となる。   As for the superimposed display when viewing the image of the stereoscopic microscope 47 with the image display device 40, if a marker group is installed in the stereoscopic microscope 47, the two-dimensional CCD 51 originally functions as a built-in camera. Can be measured using the third to fifth aspects of the invention. However, the zoom optical system 49 is mounted on the stereoscopic microscope 47, and when the magnification of the image is changed by the zoom optical system 49, the superimposed display control using the marker group cannot be performed. In this case, by confirming the AR marker used in the fourth form arranged in the vicinity of the target T with the two-dimensional CCD 51 and correcting the magnification and the position change, stable superimposed display is possible.

それ以外にも立体顕微鏡47の駆動部はそれぞれの方向に干渉せず独立に制御できる構成なので、予め、各エンコーダ値の変動に応じてどの程度重畳表示画像がどの程度ドリフトするかを自動計測し、変動誤差をマップとして記憶しておいても良い。メカ公差や立体顕微鏡47の自重変形による誤差については、その状態での自動計測による変動誤差マップによる補正で、重畳表示画像のドリフトを最小限に抑える事が可能となる。   In addition, since the drive unit of the stereo microscope 47 can be controlled independently without interfering with each direction, it automatically measures in advance how much the superimposed display image drifts according to the variation of each encoder value. The variation error may be stored as a map. Regarding errors due to mechanical tolerances and deformation of the self-weight of the stereoscopic microscope 47, the drift of the superimposed display image can be minimized by correcting with a variation error map by automatic measurement in that state.

次に、本発明による第1形態〜第7形態を実現する為の制御方法について図30にて説明する。MRI113で撮られた患者100の画像データは、MRI画像変換装置64により3D表示が可能なポリゴンデータやマッチングを行う為の表面点群データに変換され、記憶されている。一方、手術用器具やキャリブレーション架台19、画像出力装置40等に取り付けられたマーカー群は、その形状をモーションキャプチャー用センサー部1がモーションキャプチャー制御装置1PCからの指令により検出し、モーションキャプチャー制御装置1PCの記憶装置に登録されている。   Next, a control method for realizing the first to seventh embodiments according to the present invention will be described with reference to FIG. Image data of the patient 100 taken by the MRI 113 is converted and stored by the MRI image converter 64 into polygon data that can be displayed in 3D and surface point cloud data for matching. On the other hand, the shape of the marker group attached to the surgical instrument, the calibration stand 19, the image output device 40, etc. is detected by the motion capture sensor unit 1 according to a command from the motion capture control device 1PC. It is registered in the storage device of 1PC.

画像表示装置40は画像入出力制御装置40PCからの指令に応じて、内蔵カメラ49で撮ったデータを画像入出力制御装置40PCに記録する機能と、データを画像入出力制御装置40PCに記録された画像データを、2次元画像表示用液晶部43から表示する機能を持っている。手術用立体顕微鏡47は立体顕微鏡制御装置47PCからの指令に応じて、2次元CCD51で撮ったデータを立体顕微鏡制御装置47PCに記録する機能と、手術用立体顕微鏡47自体の姿勢を定められた位置に駆動する位置制御機能を持っている。   The image display device 40 has a function of recording data taken by the built-in camera 49 in the image input / output control device 40PC in response to a command from the image input / output control device 40PC, and data is recorded in the image input / output control device 40PC. The image data is displayed from the two-dimensional image display liquid crystal unit 43. The operation stereo microscope 47 has a function of recording data taken by the two-dimensional CCD 51 in the stereo microscope control apparatus 47PC in accordance with a command from the stereo microscope control apparatus 47PC, and a position where the attitude of the operation stereo microscope 47 itself is determined. It has a position control function to drive.

モーションキャプチャー制御装置1PCは、計測可能領域において、所定のワールド座標系を作り、その中にある各マーカー群のワールド座標位置をモーションキャプチャー用センサー部1により計測し、その結果をシステム制御装置MPCに常時出力している。システム制御装置MPCには、予め、どのマーカー群を使用するか、キャリブレーション架台19のローカル座標がどの程度かを入力する入力装置を有している。使用するマーカー群がキャリブレーション架台19に置かれると、自動でそのマーカー群のワールド座標を計測し始め、その値が安定した段階での、ワールド座標位置を記憶する。キャリブレーション架台19のローカル座標を差し引く事で、各手術用器具の先端部(作用部)のワールド座標位置を検出できる機能を持つ。   The motion capture control device 1PC creates a predetermined world coordinate system in the measurable region, measures the world coordinate position of each marker group in the marker by the motion capture sensor unit 1, and sends the result to the system control device MPC. Always output. The system control device MPC has an input device for inputting in advance which marker group is used and what the local coordinates of the calibration base 19 are. When the marker group to be used is placed on the calibration base 19, the world coordinates of the marker group are automatically measured, and the world coordinate position when the value is stabilized is stored. By subtracting the local coordinates of the calibration base 19, it has a function of detecting the world coordinate position of the distal end portion (action portion) of each surgical instrument.

また、システム制御装置MPCは画像表示制御装置40PC、立体顕微鏡制御装置47PC、MRI画像変換装置64に記憶された画像情報を取り込み、マッチングを行う事で、異なる座標軸の変位量を計測するレジストレーション計測機能を有する。更にはその結果に応じて、MRI画像変換装置64に記憶されたポリゴンデータに対し、シフト、回転、倍率補正を行い、画像表示制御装置40PC、立体顕微鏡制御装置47PCから得た画像情報に対し、透過処理を行う事で画像合成し、再び、画像表示制御装置40PC、立体顕微鏡制御装置47PCにその合成データを出力する機能を有する。   In addition, the system control device MPC takes in the image information stored in the image display control device 40PC, the stereoscopic microscope control device 47PC, and the MRI image conversion device 64 and performs matching to thereby measure the displacement amount of different coordinate axes. It has a function. Further, according to the result, the polygon data stored in the MRI image conversion device 64 is shifted, rotated and corrected for magnification, and the image information obtained from the image display control device 40PC and the stereomicroscope control device 47PC is obtained. It has a function of synthesizing images by performing transmission processing and outputting the synthesized data to the image display control device 40PC and the stereomicroscope control device 47PC again.

また、画像表示制御装置40を用いた立体顕微鏡装置47の位置制御については、画像出力装置40に設置されたマーカー群の位置を検出し、その結果に応じて立体顕微鏡制御装置47PCにどの程度立体顕微鏡装置47を動かすか決定する事ができる。その制御には、執刀医の足元に、位置制御のon/offを指示するペダルがあり、onの時は顔の動きに応じて駆動するが、offの時は顔の動きで制御されない様な条件を設ける事もできる。また、顔を傾けての作業が窮屈な場合、リセットボタンによりお互いの座標軸の設定を変える事もできる。   Further, regarding the position control of the stereoscopic microscope apparatus 47 using the image display control apparatus 40, the position of the marker group installed in the image output apparatus 40 is detected, and the stereoscopic microscope control apparatus 47PC determines how much three-dimensionality according to the result. It can be determined whether to move the microscope apparatus 47. For the control, there is a pedal at the foot of the surgeon that instructs on / off of position control. When it is on, it is driven according to the movement of the face, but when it is off, it is not controlled by the movement of the face. Conditions can also be set. In addition, when the work of tilting the face is cramped, the setting of each other's coordinate axes can be changed with the reset button.

1・・・モーションキャプチャー用センサー部、
1PC・・・モーションキャプチャー制御装置、
2・・・ポール、
3,12e,13e,14e,17e,18e,23,34,37,105・・・マーカー群、
4・・・タブレット、
5・・・重畳表示画像、
6・・・ディプスカメラ、
8・・・対物レンズ付の2次元受光素子、
9・・・ポリゴンデータ、
12・・・広角腹腔鏡、
12p・・・患部測定棒、
13・・・腹腔鏡、
14・・・鉗子、
15・・・トロッカー、
17・・・超音波凝固切開装置、
18・・・電気メス、
19・・・キャリブレーション架台、
20・・・作用部設置点、
22・・・V字状の切り込み、
29・・・患部、
30・・・マーカー、
31・・・無菌カバー、
32・・・透明シート、
33,35・・・コネクタ部、
36・・・アーム部、
38・・・手術用顕微鏡、
39・・・手術用ヘッドマウントディスプレイ、
40・・・画像出力装置、
40PC・・・画像入出力制御装置、
41・・・脱着部、
42・・・ルーペ部、
43・・・2次元画像表示用液晶部、
44・・・対物レンズ部、
45・・・画像合成部、
46・・・遮蔽板、
47・・・立体顕微鏡、
47PC・・・立体顕微鏡制御部、
48・・・偏向レンズ、
49・・・ズーム光学系、
50・・・対物/フォーカス調整レンズ、
51・・・2次元CCD、
54・・・ベース部、
54X・・・X軸移動ステージ、
58・・・支持面、
59・・・支点部、
60・・・弾性棒、
61・・・バランサー、
62・・・LED照明、
63・・・内蔵カメラ、
64・・・MRI画像変換装置、
100・・・患者、
104・・・3点固定具、
106・・・キャリブレーター,
107・・・3次元計測装置、
109・・・術台、
110・・・手術記録用ビデオカメラ、
111・・・PCモニター、
112・・・メガネ型固定部、
113・・・MRI
MPC・・・システム制御装置、
1 ... motion capture sensor,
1PC: Motion capture control device,
2 ... Paul,
3, 12e, 13e, 14e, 17e, 18e, 23, 34, 37, 105 ... marker group,
4 ... Tablet,
5 ... superimposed display image,
6 ... depth camera,
8: Two-dimensional light receiving element with objective lens,
9 ... Polygon data,
12 ... Wide-angle laparoscope,
12p ... affected area measuring rod,
13 ... Laparoscope,
14 ... forceps,
15 ... Troker,
17 ... Ultrasonic coagulation / cutting device,
18 ... Electric knife,
19: Calibration stand,
20 ... Action part installation point,
22 ... V-shaped notch,
29 ... affected area,
30 ... Marker
31 ... Aseptic cover,
32 ... Transparent sheet,
33, 35 ... connector part,
36 ... arm part,
38 ... surgical microscope,
39: Surgical head-mounted display,
40: Image output device,
40PC: Image input / output control device,
41 ... Desorption part,
42 ... Loupe part,
43... 2D image display liquid crystal unit,
44 ... objective lens part,
45... Image compositing unit,
46: shielding plate,
47 ... Stereo microscope,
47PC ... Stereoscopic microscope control unit,
48 ... deflection lens,
49 ... zoom optical system,
50: Objective / focus adjustment lens,
51 ... 2D CCD,
54 ... Base part,
54X ... X-axis moving stage,
58 ... support surface,
59 ... fulcrum part,
60 ... elastic bar,
61 ... Balancer,
62 ... LED lighting,
63 ... Built-in camera,
64 ... MRI image conversion device,
100 ... Patient,
104 ... 3-point fixture,
106: Calibrator,
107 ... 3D measuring device,
109 ... Operating table,
110 ... Surgery recording video camera,
111 ... PC monitor,
112 ... glasses-type fixing part,
113 ... MRI
MPC ・ ・ ・ System controller

Claims (7)

手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を少なくとも3カ所に配置し、
手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及び回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、
前記画像表示装置は、前記患部の画像を撮るカメラ部、及び前記患部の深度を計測するディプスカメラ部、更には前記第1マーカー群を有する
ことを特徴とした外科手術システム用画像表示装置。
A motion capture device having an imaging unit that emits infrared rays to a predetermined position in the operating room and receives reflected light from a marker group arranged at a predetermined interval is disposed in at least three locations,
An image display device that superimposes and displays a predetermined first image on the affected area of the patient undergoing surgery, and the patient's affected area and the superimposed display image according to the coordinate position and rotation amount of the marker group measured by the motion capture device In a surgical system having an image display device that changes
The image display device includes a camera unit that captures an image of the affected area, a depth camera unit that measures the depth of the affected area, and the first marker group.
手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及び回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、
先端部が凹レンズで構成されている第1内視鏡に第1マーカー群を有し、前記第1内視鏡で撮られた臓器全体の画像より、患部を特定するステップと、患者の患部の拡大画像を表示する為の第2内視鏡若しくは手術用器具は、第2マーカー群を有し、前記第2内視鏡若しくは手術用器具の挿入方向若しくは先端部の位置と前記特定された患部の位置との相対位置の状態を表示する
ことを特徴とした外科手術システム用内視鏡装置。
A motion capture device having an imaging unit that emits infrared rays to a predetermined position in the operating room and receives reflected light from marker groups arranged at predetermined intervals is arranged, and a predetermined first is applied to an affected part of a patient undergoing surgery. Surgical system having an image display device that superimposes and displays an image, and having an image display device that changes the affected area of the patient and the superimposed display image according to the coordinate position and rotation amount of the marker group measured by the motion capture device In
A first endoscope having a distal end made of a concave lens having a first marker group, a step of identifying an affected area from an image of an entire organ taken by the first endoscope; and The second endoscope or surgical instrument for displaying an enlarged image has a second marker group, the insertion direction of the second endoscope or surgical instrument or the position of the distal end portion and the identified affected part. An endoscope apparatus for a surgical operation system, characterized by displaying a state of a relative position with respect to the position of the surgical system.
手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を少なくとも3カ所に配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及び回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、
患者の患部に術を施す医療装置には脱着可能な第1マーカー群を有し、
前記医療装置の作用部及びそれ以外の少なくとも2点で支持できるキャリブレーション装置は、第2マーカー群を有し、前記医療装置の作用部と接触する部分と、第2マーカー群の相対座標位置を予め記憶すると共に、前記キャリブレーション装置上に前記医療装置が置かれた時の第1マーカー群と第2マーカー群の位置座標を前記モーションキャプチャー装置で計測し、記憶する
ことを特徴とした外科手術方法。
At least three motion capture devices having imaging units that emit infrared rays at predetermined positions in the operating room and receive reflected light from marker groups arranged at predetermined intervals are arranged on the affected area of a patient undergoing surgery. An image display device that includes an image display device that superimposes and displays a predetermined first image, and that changes an affected display area of a patient and a superimposed display image according to a coordinate position and a rotation amount of the marker group measured by the motion capture device. A surgical system comprising:
A medical device for performing an operation on an affected area of a patient has a first marker group that can be detached,
The calibration device that can be supported by the action part of the medical device and at least two other points has a second marker group, and a portion that contacts the action part of the medical device and a relative coordinate position of the second marker group. A surgical operation characterized by storing in advance, and measuring and storing the position coordinates of the first marker group and the second marker group when the medical device is placed on the calibration device with the motion capture device. Method.
手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及び回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、
前記画像表示装置は前記患部の画像を撮るカメラ及び前記第1マーカー群を有しており、前記カメラで撮られた第2画像と前記第1画像を重畳表示する為に、患者の患部を覆う透明シート貼り付け領域に、少なくとも一つ以上の第2マーカーを取り付ける
ことを特徴とした外科手術方法。
A motion capture device having an imaging unit that emits infrared rays to a predetermined position in the operating room and receives reflected light from marker groups arranged at predetermined intervals is arranged, and a predetermined first is applied to an affected part of a patient undergoing surgery. Surgical system having an image display device that superimposes and displays an image, and having an image display device that changes the affected area of the patient and the superimposed display image according to the coordinate position and rotation amount of the marker group measured by the motion capture device In
The image display device includes a camera that captures an image of the affected area and the first marker group, and covers the affected area of the patient in order to superimpose and display the second image captured by the camera and the first image. A surgical operation method comprising attaching at least one or more second markers to a transparent sheet pasting region.
手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を少なくとも3カ所に配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及び回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、
前記画像表示装置は、前記患部の画像を撮るカメラ及び前記第1マーカー群を有しており、前記カメラで撮られた第2画像と前記第1画像を重畳表示する為に、患者の患部から関節部を介さない患者の一部に、第2マーカー群を固定可能なコネクタ部を取り付ける
ことを特徴とした外科手術システム用マーカーのコネクタ装置。
At least three motion capture devices having imaging units that emit infrared rays at predetermined positions in the operating room and receive reflected light from marker groups arranged at predetermined intervals are arranged on the affected area of a patient undergoing surgery. An image display device that includes an image display device that superimposes and displays a predetermined first image, and that changes an affected display area of a patient and a superimposed display image according to a coordinate position and a rotation amount of the marker group measured by the motion capture device. A surgical system comprising:
The image display device includes a camera that captures an image of the affected area and the first marker group. In order to superimpose and display the second image captured by the camera and the first image, from the affected area of the patient A marker system connector device for a surgical operation system, wherein a connector portion capable of fixing a second marker group is attached to a part of a patient who does not go through a joint portion.
手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を少なくとも3カ所に配置し、手術を受ける患者の患部に所定の第1画像を重畳表示する画像表示装置を有し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及びマーク群の回転量に応じて患者の患部と重畳表示画像を変化させる画像表示装置を有する外科手術システムにおいて、
前記画像表示装置は、前記患部を左右の目で独立に見る為の第1及び第2拡大光学系を有しており、前記第1、第2拡大光学系と目の間に、前記患部の投影像と前記第1画像を重畳表示する為の第1、第2合成ミラーを有し、更には第1マーカー群を有している
ことを特徴とした外科手術システム用画像表示装置。
At least three motion capture devices having imaging units that emit infrared rays at predetermined positions in the operating room and receive reflected light from marker groups arranged at predetermined intervals are arranged on the affected area of a patient undergoing surgery. An image having an image display device that superimposes and displays a predetermined first image, and an image that changes the affected area of the patient and the superimposed display image according to the coordinate position of the marker group and the rotation amount of the mark group measured by the motion capture device In a surgical system having a display device,
The image display device includes first and second magnifying optical systems for independently viewing the affected area with the left and right eyes, and between the first and second magnifying optical systems and the eyes, An image display device for a surgical operation system, comprising first and second composite mirrors for displaying a projection image and the first image in a superimposed manner, and further comprising a first marker group.
手術室の所定の位置に赤外線を射出し、所定の間隔で配置されたマーカー群からの反射光を受光する撮像部を有するモーションキャプチャー装置を少なくとも3カ所に配置し、前記モーションキャプチャー装置で計測された前記マーカー群の座標位置及びマーク群の回転量に応じて患者の患部の表示画像を変化させる画像表示装置を有する外科手術システムにおいて、
前記画像表示装置は、第1マーカー群が配置されたヘッドマウントディスプレイであり、
患者の患部を撮像する立体顕微鏡には、その第1結像面に患部の画像を受光する2次元画像センサーが配置されており、ヘッドマウントディスプレイの装着者の顔の動きに応じて、患部を回転中心とした前記立体顕微鏡の回転及びシフト量を制御する制御機構を有し、且つ前記装着者の顔の動きに応じて前記立体顕微鏡の回転及びシフト量を制御する
ことを特徴とした外科手術装置。
At least three motion capture devices having imaging units that emit infrared rays at predetermined positions in the operating room and receive reflected light from marker groups arranged at predetermined intervals are measured by the motion capture device. In the surgical operation system having an image display device that changes the display image of the affected area of the patient according to the coordinate position of the marker group and the rotation amount of the mark group,
The image display device is a head mounted display in which a first marker group is arranged,
A stereoscopic microscope for imaging an affected area of a patient has a two-dimensional image sensor that receives an image of the affected area on the first imaging plane, and the affected area is detected according to the movement of the face of the head-mounted display wearer. A surgical operation characterized by having a control mechanism for controlling the rotation and shift amount of the stereomicroscope with the rotation center as the center, and controlling the rotation and shift amount of the stereomicroscope according to the movement of the face of the wearer apparatus.
JP2015041029A 2015-03-03 2015-03-03 Surgical operation method using image display device, and device using in surgical operation Pending JP2016158911A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015041029A JP2016158911A (en) 2015-03-03 2015-03-03 Surgical operation method using image display device, and device using in surgical operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015041029A JP2016158911A (en) 2015-03-03 2015-03-03 Surgical operation method using image display device, and device using in surgical operation

Publications (2)

Publication Number Publication Date
JP2016158911A true JP2016158911A (en) 2016-09-05
JP2016158911A5 JP2016158911A5 (en) 2018-04-05

Family

ID=56843631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015041029A Pending JP2016158911A (en) 2015-03-03 2015-03-03 Surgical operation method using image display device, and device using in surgical operation

Country Status (1)

Country Link
JP (1) JP2016158911A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019111539A1 (en) * 2017-12-04 2019-06-13 株式会社ホギメディカル Glasses-mounted image display device and image display system
JP2019168579A (en) * 2018-03-23 2019-10-03 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation apparatus
JP2020522827A (en) * 2017-04-21 2020-07-30 ザ ユナイテッド ステイツ ガバメント アズ リプレゼンティド バイ ザ デパートメント オブ ヴェテランズ アフェアーズ Use of augmented reality in surgical navigation
KR20200141966A (en) * 2020-12-01 2020-12-21 김기천 Loupes with two magnification
CN113786189A (en) * 2021-07-30 2021-12-14 上海赛增医疗科技有限公司 Head-moving eye-moving composite capturing method and system based on same image acquisition equipment
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
US11944272B2 (en) 2017-12-07 2024-04-02 Medtronic Xomed, Inc. System and method for assisting visualization during a procedure

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0884740A (en) * 1994-09-16 1996-04-02 Toshiba Corp Treatment apparatus
JP2007512854A (en) * 2003-04-28 2007-05-24 ブラッコ イメージング ソチエタ ペル アチオニ Surgical navigation system (camera probe)
JP2011182983A (en) * 2010-03-09 2011-09-22 Hitachi Medical Corp Treatment support device and treatment support system
US20130271449A1 (en) * 2012-04-17 2013-10-17 Samsung Electronics Co., Ltd. Method of generating three-dimensional (3d) volumetric data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0884740A (en) * 1994-09-16 1996-04-02 Toshiba Corp Treatment apparatus
JP2007512854A (en) * 2003-04-28 2007-05-24 ブラッコ イメージング ソチエタ ペル アチオニ Surgical navigation system (camera probe)
JP2011182983A (en) * 2010-03-09 2011-09-22 Hitachi Medical Corp Treatment support device and treatment support system
US20130271449A1 (en) * 2012-04-17 2013-10-17 Samsung Electronics Co., Ltd. Method of generating three-dimensional (3d) volumetric data

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
JP2020522827A (en) * 2017-04-21 2020-07-30 ザ ユナイテッド ステイツ ガバメント アズ リプレゼンティド バイ ザ デパートメント オブ ヴェテランズ アフェアーズ Use of augmented reality in surgical navigation
US11883118B2 (en) 2017-04-21 2024-01-30 United States Government As Represented By The Department Of Veterans Affairs Using augmented reality in surgical navigation
WO2019111539A1 (en) * 2017-12-04 2019-06-13 株式会社ホギメディカル Glasses-mounted image display device and image display system
JP2019102993A (en) * 2017-12-04 2019-06-24 株式会社ホギメディカル Spectacle mounted image display device and image display system
US11175875B2 (en) 2017-12-04 2021-11-16 Hogy Medical Co., Ltd. Eyeglass-mounted image display device and image system
US11944272B2 (en) 2017-12-07 2024-04-02 Medtronic Xomed, Inc. System and method for assisting visualization during a procedure
JP2019168579A (en) * 2018-03-23 2019-10-03 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation apparatus
JP7094746B2 (en) 2018-03-23 2022-07-04 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation device
KR20200141966A (en) * 2020-12-01 2020-12-21 김기천 Loupes with two magnification
KR102447105B1 (en) 2020-12-01 2022-09-27 김기천 Loupes with two magnification
CN113786189A (en) * 2021-07-30 2021-12-14 上海赛增医疗科技有限公司 Head-moving eye-moving composite capturing method and system based on same image acquisition equipment

Similar Documents

Publication Publication Date Title
US11336804B2 (en) Stereoscopic visualization camera and integrated robotics platform
US20230255446A1 (en) Surgical visualization systems and displays
US11382700B2 (en) Extended reality headset tool tracking and control
US20210169606A1 (en) Surgical visualization systems and displays
US20220054223A1 (en) Surgical visualization systems and displays
JP2016158911A (en) Surgical operation method using image display device, and device using in surgical operation
KR102365889B1 (en) Medical devices, systems, and methods integrating eye gaze tracking for stereo viewer
EP2903551B1 (en) Digital system for surgical video capturing and display
US11382713B2 (en) Navigated surgical system with eye to XR headset display calibration
CA3093009A1 (en) Stereoscopic visualization camera and integrated robotics platform
CN113243990A (en) Surgical system
JP2019532693A (en) Surgical navigation system and method including image guided navigation of a patient's head
US11317973B2 (en) Camera tracking bar for computer assisted navigation during surgery
WO2020045015A1 (en) Medical system, information processing device and information processing method
JP2008018015A (en) Medical display unit and system
KR102097390B1 (en) Smart glasses display device based on eye tracking
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
US11698535B2 (en) Systems and methods for superimposing virtual image on real-time image
EP4355876A1 (en) Augmented reality system for real space navigation and surgical system using the same
US20230222740A1 (en) Medical image processing system, surgical image control device, and surgical image control method
JP2024505269A (en) Surgical auxiliary system including surgical microscope and camera and display method
Southern et al. Video microsurgery: early experience with an alternative operating magnification system
KR20210042784A (en) Smart glasses display device based on eye tracking
AU2019261643B2 (en) Stereoscopic visualization camera and integrated robotics platform
WO2020050187A1 (en) Medical system, information processing device, and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190521