JPH05123327A - Operation simulation system - Google Patents

Operation simulation system

Info

Publication number
JPH05123327A
JPH05123327A JP3291477A JP29147791A JPH05123327A JP H05123327 A JPH05123327 A JP H05123327A JP 3291477 A JP3291477 A JP 3291477A JP 29147791 A JP29147791 A JP 29147791A JP H05123327 A JPH05123327 A JP H05123327A
Authority
JP
Japan
Prior art keywords
image
surgical tool
tissue
simulation system
simulated surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3291477A
Other languages
Japanese (ja)
Other versions
JP3198130B2 (en
Inventor
Akinami Ohashi
昭南 大橋
Michitaka Sugawara
通孝 菅原
Hitoshi Sato
均 佐藤
Kazuhiro Tamura
和宏 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Engineering Co Ltd filed Critical Toshiba Corp
Priority to JP29147791A priority Critical patent/JP3198130B2/en
Publication of JPH05123327A publication Critical patent/JPH05123327A/en
Application granted granted Critical
Publication of JP3198130B2 publication Critical patent/JP3198130B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation

Abstract

PURPOSE:To create the reality of an operation including proper image display by providing a superposing display means for superposing and displaying a pseudo operating tool including its movement on an image, and an artificial reality creating means for giving a repelling force to the pseudo operating tool. CONSTITUTION:A three-dimensional position input device 9 is connected to a pseudo operating tool such as a surgical knife, a drill or the others, and an operator can hold and three-dimensionally operate the pseudo operating tool. A virtual space forming part 13 forms a virtual operating tool image having the form and motion corresponding to the operated pseudo operating tool, and it is superposed on a synthetic image and three-dimensionally displayed by a virtual space display part 12. An artificial reality generating part 8 determines the resistance to the pseudo operation tool held by the operator by the contact between the virtual operating tool and a virtual operation and outputs it to a force feedback device 10, which then gives a resistance according to the input value to the pseudo operating tool held by the operator. The frequency and amplitude of a sound estimated at the time of an actual operation are also calculated and outputted to a voice output device 11, which then generates an operation sound according to the input value.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、医用画像を用いる手術
シミュレーションシステムに係り、特に手術の現実感を
創出できる手術シミュレーションシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surgery simulation system using medical images, and more particularly to a surgery simulation system capable of creating a sense of reality in surgery.

【0002】[0002]

【従来の技術】人体は3次元構造であるが、当初の医用
画像は、X線写真に代表されるように2次元への投影像
であり、その後X線CT、MRI、超音波等に代表され
る医用画像により3次元の情報が得るようになった。
2. Description of the Related Art Although a human body has a three-dimensional structure, an initial medical image is a two-dimensional projection image as typified by an X-ray photograph, and then is represented by an X-ray CT, MRI, ultrasonic wave, etc. Three-dimensional information has come to be obtained from the medical images.

【0003】しかし、これらの医用画像は断層像として
撮影されるため、画像1枚1枚はやはり2次元の画像で
あり、この断層像を複数枚撮影して組み合わせることに
より3次元画像が得られる。そこで、現状ではほとんど
の場合、医師は複数枚の断層画像を観察して自分の頭の
中で3次元画像を構築しているが、これには熟練を要
し、また定量的な把握は困難である。
However, since these medical images are photographed as tomographic images, each image is also a two-dimensional image, and a three-dimensional image can be obtained by photographing a plurality of these tomographic images and combining them. .. Therefore, in most cases, doctors currently observe multiple tomographic images and construct a three-dimensional image in their heads, but this requires skill and is difficult to quantitatively grasp. Is.

【0004】一方では、3次元画像の3次元としての表
示が行われている。特に仮想空間に3次元表示を行うこ
とは公知の技術であり、CG(コンピュータ・グラフィ
ックス)の分野で盛んである。3次元表示に関しては多
くの文献があるが、最新のものとしては、電気学会誌1
991年2月号に特集が組まれており、その中では医用
画像への応用についても触れている。
On the other hand, a three-dimensional display of a three-dimensional image is performed. In particular, displaying three-dimensionally in a virtual space is a well-known technique, and is popular in the field of CG (computer graphics). There are many documents regarding three-dimensional display, but the latest one is the Institute of Electrical Engineers of Japan 1
A special issue was published in the February 991 issue, which also mentions its application to medical imaging.

【0005】医用画像における3次元表示は、両眼視
差、運動視差を利用する方式もあるが、表面表示が利用
される場合が多い。しかし、表面表示で問題になるの
は、画像を2値化していることである。すなわち、2値
化画像は濃淡像ではないため、診断にはあまり適してい
ない。
For three-dimensional display in a medical image, there is a method using binocular parallax and motion parallax, but surface display is often used. However, a problem with surface display is that the image is binarized. That is, since the binarized image is not a grayscale image, it is not suitable for diagnosis.

【0006】このため、医用画像の3次元表示は、手術
シミュレーションシステムに応用したものが多い。例え
ば、 1)腫瘍、血管、重要組織などを3次元表示して、その
位置、大きさを把握する 2)骨の一部を切断、移動する場合の手術シミュレーシ
ョンを行う などの手術シミュレーションシステムが、例えば“メデ
ィカル・イメージング・テクノロジー(Medical Imagin
g Technology)”1989年3月号および1990年6
月号に報告されている。
Therefore, many three-dimensional display of medical images is applied to a surgery simulation system. For example, 1) a tumor, blood vessel, important tissue, etc. are three-dimensionally displayed and their position and size are grasped. 2) A surgery simulation system, such as performing a surgery simulation when cutting or moving a part of bone, For example, “Medical Imaging Technology (Medical Imagin
g Technology) ”March 1989 and June 1990
It is reported in the monthly issue.

【0007】[0007]

【課題を解決するための手段】しかしながら、上述の手
術シミュレーションシステムは画像表示のレベルに止ま
っており、本格的な手術シミュレーションシステムとは
いえない。なぜならば、 1)CT画像、MRI画像など各種の画像にはそれぞれ
特色があり(例えばCT画像は骨が、またMRI画像は
臓器が鮮明に投影される)、1種類の画像だけで手術に
掛かるすべての腫瘍、血管、重要組織などを実際の手術
時に目に写るような有様で撮影することは困難である。
そのためには複数の種類の画像を、それぞれの画像の利
点を生かしながら合成して表示(以下「合成表示」とい
う)することが必要であるが、このようなシステムは存
在していない。
However, the above-mentioned surgery simulation system is still at a level of image display and cannot be said to be a full-scale surgery simulation system. This is because: 1) Various images such as CT images and MRI images have distinctive features (for example, CT images show clearly projected bones, and MRI images show clearly projected organs). It is difficult to photograph all tumors, blood vessels, important tissues, etc. in a visible state during actual surgery.
For that purpose, it is necessary to combine and display a plurality of types of images while making the most of the advantages of each image (hereinafter referred to as “composite display”), but such a system does not exist.

【0008】最近ではPACS(Picture Archiving an
d Communication System;医用画像保管通信システム)
により、複数の種類の画像をまとめて表示することも行
われているが、PACSではあくまでも画像を種類別に
独立に表示するのであり、ここでいう合成表示ではな
い。手術シミュレーションに必要な合成表示とは、複数
の種類の画像を1枚の画像に合成して表示することであ
る。
Recently, PACS (Picture Archiving an
d Communication System; medical image storage communication system)
Therefore, although a plurality of types of images are collectively displayed, in PACS, the images are displayed independently for each type, and not the composite display here. The composite display required for the surgery simulation is to combine and display a plurality of types of images into one image.

【0009】2)表示方法が固定されており、表示にお
けるヒューマン・インターフェースが十分でない(操作
者が表示方法に変更を加えたりすることができない)。
2) The display method is fixed, and the human interface in the display is not sufficient (the operator cannot change the display method).

【0010】3)システムにメス、ドリルなどの模擬手
術具を取り入れ、かつこの模擬手術具を人体画像に重畳
して表示し、その模擬手術具を通して伝わる人体組織か
らの抵抗感や人体組織に触れたときの音の発生など、現
実感を伴う手術シミュレーションが体験できない。現実
感のあるシミュレーションシステムとしては、航空機の
飛行訓練のためのシミュレーションシステムがよく知ら
れているが、医用に応用したシミュレーションシステム
は未だに存在していない。
3) The system incorporates a surgical instrument such as a scalpel and a drill, and the simulated surgical instrument is displayed by being superimposed on a human body image, and the human body tissue touching the resistance and human body tissue transmitted through the simulated surgical instrument is touched. You cannot experience a surgical simulation with a sense of reality, such as the generation of sound when you hit. As a realistic simulation system, a simulation system for flight training of an aircraft is well known, but a simulation system applied to medical use has not yet existed.

【0011】本発明は上記事情に鑑みてなされたもの
で、適切な画像表示を含めて手術の現実感を創出できる
手術シミュレーションシステムを提供することを目的と
する。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a surgery simulation system capable of creating a sense of reality of surgery including appropriate image display.

【0012】[0012]

【課題を解決するための手段】本発明は上記課題を解決
するために、操作者が握って動かすことのできる模擬手
術道具を備え、複数のモダリティの画像から手術対象部
分の各組織を含む画像を合成する画像合成手段と、前記
合成した画像を3次元表示する3次元画像表示手段と、
前記模擬手術道具をその動きを含めて前記画像に重畳表
示する重畳表示手段と、前記重畳表示手段において模擬
手術道具が組織に接したとき、両者の硬度に対応する音
を発生し、模擬手術道具に反発力を与える人工現実感創
出手段を具備する手術シミュレーションシステムを提供
する。
In order to solve the above-mentioned problems, the present invention is provided with a simulated surgical tool which can be grasped and moved by an operator, and an image including each tissue of an operation target portion from images of a plurality of modalities. Image synthesizing means for synthesizing, and a three-dimensional image displaying means for three-dimensionally displaying the synthesized image,
Superimposition display means for superimposing and displaying the simulated surgical tool on the image including its movement, and when the simulated surgical tool comes into contact with a tissue in the superimposed display means, a sound corresponding to the hardness of both is generated, and the simulated surgical tool is produced. Provided is a surgery simulation system including means for creating an artificial reality that gives repulsive force to

【0013】[0013]

【作用】本発明の手術シミュレーションシステムは、モ
ダリティによってコントラストの高低がある人体組織に
ついて、複数のモダリティの画像を同じ位置、尺度、ず
れ角で合成するため、実際の手術時に目にすると同じ3
次元の人体組織像を鮮明に見ることができる。また、本
発明の手術シミュレーションシステムは実寸大の模擬手
術道具を装備してかつ人体組織とともに画像表示する。
そして、操作者がこれを握って動かすと、それに伴っ
て、画像上の模擬手術道具が移動して人体組織に触れ、
その際メス、ドリルなど模擬手術道具の種類と骨、軟組
織など人体組織の関係に基づき、実際の手術時に予想さ
れる音を発生し、また操作者が握る模擬手術道具に反発
力を与える。
The surgical simulation system of the present invention synthesizes images of a plurality of modalities at the same position, scale, and deviation angle with respect to human body tissues having high and low contrasts depending on modalities.
You can clearly see the three-dimensional human tissue image. In addition, the surgical simulation system of the present invention is equipped with an actual-sized simulated surgical tool and displays an image together with human tissue.
Then, when the operator grasps and moves it, the simulated surgical tool on the image moves and touches the human body tissue,
At that time, based on the relationship between the types of simulated surgical tools such as scalpels and drills and human tissues such as bones and soft tissues, a sound expected during actual surgery is generated, and repulsive force is applied to the simulated surgical tools grasped by the operator.

【0014】[0014]

【実施例】以下添付の図面を参照して本発明の実施例を
説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.

【0015】図1は、本発明の一実施例に係る手術シミ
ュレーションシステム1の構成図である。すなわち、制
御部2には画像合成部3、超並列処理装置4およびエキ
スパートシステム5が接続し、アトラスデータベース6
も重要組織認識部7を介して制御部2に接続する。ま
た、人工現実感発生部8も制御部2に接続するが、この
人工現実感発生部8には、3次元位置入力装置9、フォ
ースフィードバック(force-feedback)装置10および
音声出力装置11も接続し、さらに仮想空間表示部12
も仮想空間作成部13を介して人工現実感発生部8に接
続する。
FIG. 1 is a block diagram of a surgery simulation system 1 according to an embodiment of the present invention. That is, the image synthesizer 3, the massively parallel processing device 4 and the expert system 5 are connected to the controller 2 and the atlas database 6
Is also connected to the control unit 2 via the important tissue recognition unit 7. The artificial reality generating unit 8 is also connected to the control unit 2. The artificial reality generating unit 8 is also connected to the three-dimensional position input device 9, the force feedback device 10, and the voice output device 11. In addition, the virtual space display unit 12
Also connects to the artificial reality generating unit 8 via the virtual space creating unit 13.

【0016】画像合成部3には複数のモダリティ(MR
I、CT、US[超音波]、NM[核医学]等)の画像
デ−タが合成のために入力されるが、一方では理想的な
人体の3次元解剖図をディジタル化して保存するアトラ
スデータベース6からその解剖図データが重要組織認識
部7に出力される。重要組織認識部7では、入力してき
た解剖図デ−タから腫瘍、血管、臓器など複数の種類
(モダリティ)の画像にまたがって撮影される人体の重
要組織を認識し、その重要組織を制御部2を介して画像
合成部3に送る。
The image synthesis unit 3 includes a plurality of modalities (MR
Image data of I, CT, US [ultrasound], NM [nuclear medicine], etc.) is input for synthesis, but on the other hand, an atlas that digitizes and stores an ideal three-dimensional anatomy of the human body. The anatomical chart data is output from the database 6 to the important tissue recognition unit 7. The important tissue recognizing unit 7 recognizes the important tissue of the human body taken over a plurality of types (modality) images such as tumor, blood vessel, and organ from the inputted anatomical chart data, and controls the important tissue. 2 to the image compositing unit 3.

【0017】画像合成部3は、送られてきた重要組織
と、制御部2を介して行われるエキスパートシステム
(学習によって得た人体組織に関する知識をデータベー
ス化した質問応答性能を示すシステム)5との応答をを
基に、複数のモダリティの画像の位置関係を把握し、こ
れらの画像を合成する。なお、重要組織認識部7、エキ
スパートシステム5および画像合成部3で大量のデ−タ
処理を必要とするときは、制御部2を介して超並列処理
装置4でそのデ−タ処理に掛かる高速演算が実行され
る。したがって本実施例の手術シミュレーションシステ
ム1では、必要な合成画像を高速で得ることができる。
The image synthesizing section 3 is composed of the sent important organization and an expert system (a system showing a question answering performance in which a database of knowledge about human tissue obtained by learning is stored) and an expert system 5 executed via the control section 2. Based on the response, the positional relationship between the images of a plurality of modalities is grasped, and these images are combined. When a large amount of data processing is required in the important organization recognition unit 7, the expert system 5, and the image synthesis unit 3, the mass processing is performed by the massively parallel processing unit 4 via the control unit 2 at high speed. The calculation is executed. Therefore, the surgery simulation system 1 according to the present embodiment can obtain a necessary composite image at high speed.

【0018】画像合成部3で形成された合成画像は、制
御部2と人工現実感発生部8を介して仮想空間作成部1
3に送られ、ここで指定された視線方向から見た3次元
画像にデ−タ変換される。そして、つづく仮想空間表示
部12で仮想空間に3次元表示される。
The composite image formed by the image composition section 3 is passed through the control section 2 and the artificial reality generating section 8 to the virtual space creating section 1
3 and the data is converted into a three-dimensional image viewed from the designated line-of-sight direction. Then, it is three-dimensionally displayed in the virtual space by the subsequent virtual space display unit 12.

【0019】一方、3次元位置入力装置9は、メス、ド
リルなどの模擬手術具に連結し、操作者はこの模擬手術
具を握って3次元的に移動させる(操作する)ことがで
きる。また、仮想空間作成部13は、操作者が3次元位
置入力装置9で操作する模擬手術具に対応した形状・動
きをする仮想手術具像を作成し、これを仮想空間表示部
12で合成画像に重畳して3次元表示させる。したがっ
て、操作者は仮想空間表示部12における合成画像と仮
想手術具像を見て、仮想手術具の像が目的の人体組織の
合成画像に接して手術目的に応じた動作をするよう模擬
手術具を操作するが、そうするとその模擬手術具の3次
元的動きは人工現実感発生部8と仮想空間作成部13を
介して仮想空間表示部12の仮想手術具像に反映され
る。
On the other hand, the three-dimensional position input device 9 is connected to a simulated surgical instrument such as a scalpel or a drill, and an operator can grasp (move) the simulated surgical instrument and move (operate) it three-dimensionally. Further, the virtual space creation unit 13 creates a virtual surgical tool image having a shape and movement corresponding to the simulated surgical tool operated by the operator using the three-dimensional position input device 9, and the virtual space display unit 12 creates a composite image of the virtual surgical tool image. 3D display is superimposed on. Therefore, the operator looks at the composite image and the virtual surgical instrument image on the virtual space display unit 12, and the image of the virtual surgical instrument comes into contact with the synthetic image of the target human body tissue so as to perform an operation according to the surgical purpose. Then, the three-dimensional movement of the simulated surgical tool is reflected on the virtual surgical tool image on the virtual space display section 12 via the artificial reality generating section 8 and the virtual space creating section 13.

【0020】ところで、実際の手術に当たっては、メス
やドリルなどの手術具が人体組織に触れ、動作するとき
は、その人体組織の硬さに応じて術者は抵抗を感じ、ま
た時には接触音、衝撃音(ドリルで骨を切削する音な
ど)が発生する。そこで人工現実感発生部8は、仮想手
術具とこの仮想手術が接触し、その中に分け入る人体組
織との関係から、操作者の握る模擬手術具への抵抗量
(フォースフィードバック)を求めてフォースフィード
バック装置10に出力する。フォースフィードバック装
置10は、人工現実感発生部8からの入力値に応じた抵
抗力を操作者の握る模擬手術具へ与える。
In actual surgery, when a surgical tool such as a scalpel or a drill touches human body tissue and operates, the operator feels resistance depending on the hardness of the human body tissue, and sometimes the contact sound, Impact noise (such as the sound of cutting a bone with a drill) is generated. Therefore, the artificial reality generation unit 8 obtains the amount of resistance (force feedback) to the simulated surgical tool grasped by the operator from the relationship between the virtual surgical tool and the human body tissue that is divided into the virtual surgical tool. Output to the force feedback device 10. The force feedback device 10 applies a resistance force corresponding to the input value from the artificial reality generating unit 8 to the simulated surgical instrument held by the operator.

【0021】また人工現実感発生部8は、同じく仮想手
術具とこの仮想手術が接触し、その中に分け入る人体組
織との関係から、実際の手術時に発生すると予想される
音のパラメータ(周波数、振幅等)をも算出し、音声出
力装置11に出力する。音声出力装置11は、その入力
値に応じた手術音を発生する。
Further, the artificial reality generating section 8 similarly produces a parameter (frequency) of sound that is expected to be generated during an actual operation due to the relationship between the virtual surgical tool and the human body tissue that is separated into the virtual surgical tool. , Amplitude, etc.) are also calculated and output to the audio output device 11. The voice output device 11 generates an operation sound according to the input value.

【0022】つぎに図2(A)と(B)および図3
(A)〜(E)を参照して、上述の画像合成部3で行わ
れる画像合成の方法を説明する。
Next, FIGS. 2A and 2B and FIG.
With reference to (A) to (E), a method of image composition performed by the image composition unit 3 will be described.

【0023】画像合成部3に入力される各モダリティの
画像は、スケール、撮影角度、撮影位置が異なるため、
これらを一致させないと画像を合成することはできな
い。そこで本実施例の手術シミュレーションにおいて
は、画像のスケール、撮影角度、撮影位置の基準となる
合成基準マーカを用い、画像間のスケール、撮影角度、
撮影位置を一致させた上で画像を合成する。以下CT画
像とMRI画像を合成する場合を例にとって説明する。
Since the images of each modality input to the image synthesizing unit 3 have different scales, shooting angles, and shooting positions,
Images cannot be combined unless they match. Therefore, in the surgery simulation of the present embodiment, a scale between images, a shooting angle, a synthetic reference marker serving as a reference of a shooting position is used, and a scale between images, a shooting angle,
The images are combined after matching the shooting positions. Hereinafter, a case where a CT image and an MRI image are combined will be described as an example.

【0024】図2(A)の斜視図および図2(B)の平
面図に示した合成基準マーカ20は、アルミニウム製の
L字型容器21であり、中空部には水22を満たす。ア
ルミニウムはX線CT撮影時にいわゆるCTナンバー
(濃度)が高く、逆にMRI画像においては、アルミニ
ウムは濃度が低く水の濃度が高くなる。よって、合成基
準マーカ20は、X線CT装置においてはMRI装置に
おいても、高コントラストの画像になる。
The synthetic reference marker 20 shown in the perspective view of FIG. 2A and the plan view of FIG. 2B is an L-shaped container 21 made of aluminum, and the hollow portion is filled with water 22. Aluminum has a high so-called CT number (concentration) during X-ray CT imaging, and conversely, aluminum has a low concentration and high water concentration in MRI images. Therefore, the synthetic reference marker 20 becomes a high-contrast image even in the MRI apparatus in the X-ray CT apparatus.

【0025】画像合成器3には、合成基準マーカ20を
側において撮影した、図3(A)に示すCT画像23と
図3(C)に示すMRI画像24が入力される。図中、
符号ROI1とROI2はそれぞれ、同一の撮影位置
(スライス)における別々の関心領域である。そこで画
像合成器3では、まずCT画像23中の合成基準マーカ
20の容器21と容器21に収容された水22の角度の
ずれを調べ、ずれ角θだけ反時計回りに回転させて、図
3(B)に示すCT画像27を得る。
To the image synthesizer 3, the CT image 23 shown in FIG. 3 (A) and the MRI image 24 shown in FIG. 3 (C) obtained by photographing the synthesis reference marker 20 are input. In the figure,
Reference symbols ROI1 and ROI2 are different regions of interest at the same imaging position (slice). Therefore, in the image synthesizer 3, first, the deviation of the angle between the container 21 of the composition reference marker 20 and the water 22 contained in the container 21 in the CT image 23 is checked, and the image is rotated counterclockwise by the deviation angle θ, and then, as shown in FIG. The CT image 27 shown in (B) is obtained.

【0026】つぎに、画像合成器3は、図3(B)のC
T画像23における容器21の内側寸法aと図3(C)
のMRI画像24の水22においてその内側寸法aに対
応する寸法bを比較し、両画像のスケールの一致を調べ
る。ここではa>bであるため、図3(C)のMRI画
像24をa/b倍に拡大して、図3(D)に示すMRI
画像28を得る。その結果、図3(B)中の容器21の
内側寸法aと図3(D)中の水の寸法b´は等しくな
る。
Next, the image synthesizer 3 uses C in FIG. 3 (B).
The inside dimension a of the container 21 in the T image 23 and FIG.
In the water 22 of the MRI image 24 of FIG. Since a> b here, the MRI image 24 of FIG. 3C is magnified a / b times to obtain the MRI shown in FIG.
Obtain the image 28. As a result, the inner dimension a of the container 21 in FIG. 3 (B) and the water dimension b ′ in FIG. 3 (D) become equal.

【0027】最後に、画像合成器3は、CT画像27と
MRI画像28が同一のスケール・撮影角度になったた
め、両者を重ね合わせて合成し、図3(E)に示す合成
画像30を得る。
Finally, since the CT image 27 and the MRI image 28 have the same scale and photographing angle, the image synthesizer 3 superimposes them and synthesizes them to obtain a synthesized image 30 shown in FIG. 3 (E). ..

【0028】つぎに、仮想空間表示部12における3次
元表示の例を説明する。図4(A)は手術対象である頭
部全体の表面表示(3次元表示の一種)である。この画
面は任意の方向に回転させて任意の方向から観察するこ
とができる。
Next, an example of three-dimensional display on the virtual space display unit 12 will be described. FIG. 4A is a surface display (a type of three-dimensional display) of the entire head that is the surgical target. This screen can be rotated in any direction and viewed from any direction.

【0029】実際の手術においては、この頭部表面を切
開していくわけであるから、シミュレーションの際は、
表面を切開した頭部内部の像が欲しい。本実施例におい
ては、図4(B)に示すように、任意の方向から任意の
大きさの穴を開けることができる。そして、穴の奥の像
については、以下に複数の種類の表示方法を用意してお
り、これらは操作者が適宜選択することができる。また
穴以外の部分については表面表示が多いが、他の表示方
法も可能である。
In actual surgery, the surface of the head is incised, so during simulation,
I want an image of the inside of the head with the surface incised. In this embodiment, as shown in FIG. 4B, a hole having an arbitrary size can be formed from an arbitrary direction. For the image at the back of the hole, a plurality of types of display methods are prepared below, and these can be selected by the operator as appropriate. The surface other than the hole is often displayed, but other display methods are possible.

【0030】本実施例においては、穴の奥の像につい
て、3種類の表示方法が可能である。 1)図5(A)に示す断層面の濃淡画像:穴の奥の全領
域について、断層面のグレーレベル濃淡表示を行う。断
層面は穴の深さ方向において任意に設定可能である。濃
淡画像は空間分解能、密度分解能に優れているため、所
定深さの位置におけるすべての組織を詳細に観察するこ
とができる。
In this embodiment, three types of display methods are possible for the image at the back of the hole. 1) Grayscale image of the tomographic plane shown in FIG. 5A: Gray level grayscale display of the tomographic plane is performed for the entire region behind the hole. The tomographic plane can be set arbitrarily in the depth direction of the hole. Since the grayscale image is excellent in spatial resolution and density resolution, it is possible to observe in detail all the tissues at the position of the predetermined depth.

【0031】2)図5(B)に示す組織の疑似3次元画
像:特定の腫瘍、組織などを人間が穴から覗いたように
疑似3次元で表示する。表示に掛かる腫瘍、組織など
は、予め指定しておくと、重要組織認識部7が腫瘍や組
織をとらえて事前に3次元画像を作成しておく。この3
次元画像の作成に当たっては、その組織を認識・観察し
やすいモダリティの医用画像を用いる。疑似3次元画像
は、組織全体を把握するのに適しているため、腫瘍と血
管の位置関係等を確認することができる。
2) Pseudo three-dimensional image of the tissue shown in FIG. 5B: A specific tumor, tissue or the like is displayed in a pseudo three-dimensional manner as if a person looked through a hole. If the tumor or tissue to be displayed is designated in advance, the important tissue recognition unit 7 captures the tumor or tissue and creates a three-dimensional image in advance. This 3
When creating a three-dimensional image, a medical image of a modality that allows easy recognition and observation of the tissue is used. Since the pseudo three-dimensional image is suitable for grasping the entire tissue, the positional relationship between the tumor and blood vessels can be confirmed.

【0032】3)図5(C)に示す組織の濃淡画像:先
の2)疑似3次元画像のときと同様に指定した腫瘍、組
織が、1)と同様の濃淡表示される。2)の疑似3次元
画像によって腫瘍と血管の位置関係等を確認した後、腫
瘍等をより詳細に確認する場合に適している。
3) Gray-scale image of the tissue shown in FIG. 5C: The tumor and tissue designated as in the case of the above 2) pseudo three-dimensional image are displayed in the same gray-scale as in 1). This is suitable for confirming the tumor and the like in more detail after confirming the positional relationship between the tumor and the blood vessel by the pseudo three-dimensional image of 2).

【0033】以上3つの表示方法はそれぞれに長所・短
所がある。このため、従来のようにただ1種類の表示方
法では手術シミュレーション用としては適当でないが、
本実施例によれば、場合に応じて適切な表示方法を選択
できるという利点が生まれる。
Each of the above three display methods has advantages and disadvantages. Therefore, although only one type of display method as in the past is not suitable for surgery simulation,
According to this embodiment, there is an advantage that an appropriate display method can be selected depending on the case.

【0034】ついで、半透明3次元表示(半透明表示)
について説明する。疑似3次元表示の一つに半透明表示
がある。半透明表示とは、例えば骨を半透明、内部の腫
瘍などを表面表示することにより、骨を透かして内部の
腫瘍などを観察できるようにする表示方法である。本実
施例では半透明にする部分を組織ではなく、表面からの
任意の深さで指定する。
Next, a semi-transparent three-dimensional display (semi-transparent display)
Will be described. One of the pseudo three-dimensional displays is semi-transparent display. The semi-transparent display is a display method in which, for example, the bone is semi-transparent and the internal tumor is displayed on the surface so that the internal tumor can be observed through the bone. In the present embodiment, the semi-transparent portion is designated not by the tissue but by an arbitrary depth from the surface.

【0035】よって、先の図4(A)は手前の頭骨の透
明度が0の半透明表示とみなすこともでき、図6はこの
図4(A)の観察者から見た深さと透明度の関係をグラ
フで示したものである。すなわち、この場合は手前の頭
骨より浅いところで透明度が0になっているため、手前
の頭骨の表面だけがみえ、頭骨内部の様子は観察できな
い。
Therefore, the previous FIG. 4 (A) can be regarded as a semi-transparent display in which the transparency of the frontal bone is 0, and FIG. 6 shows the relationship between the depth and the transparency seen by the observer in FIG. 4 (A). Is shown in the graph. That is, in this case, since the transparency is 0 at a depth shallower than the front skull, only the surface of the front skull can be seen, and the inside of the skull cannot be observed.

【0036】また先の図5(A)は、頭骨およびその内
部組織全体を球とみなしたときの上部の半球が透明な半
透明表示とみなすこともできる。図7は、この図5
(A)の観察者から見た深さと透明度の関係をグラフで
示したものであり、この場合は手前の頭骨および中央の
組織まで透明度が0で、それより深い部分は不透明のた
め、ほぼ中央の断面が観察できる。
Further, in FIG. 5A, the upper hemisphere can be regarded as a transparent semitransparent display when the entire skull and its internal tissue are regarded as a sphere. FIG. 7 shows this FIG.
(A) is a graph showing the relationship between the depth and the transparency as seen by the observer. In this case, the transparency is 0 up to the front skull and the central tissue, and the deeper part is opaque, so it is almost in the center. The cross section can be observed.

【0037】図8は、透明度を段階的に変化させた場合
の深さと透明度の関係を示すグラフである。この図にお
いては、手前の頭骨より浅いP1の深さまでは透明であ
るから、深さP1までの部分は表示されない。一方、深
さP1から深さP2(手前側頭骨からいくらか中央部に
向けて進んだ位置)まではほぼ半分の透明度であるか
ら、この間の組織は半透明で表示される。そして、深さ
P2より深くなると透明度が0であるから、この深さP
2の位置で断面が表示される。
FIG. 8 is a graph showing the relationship between depth and transparency when the transparency is changed stepwise. In this figure, since it is transparent up to the depth of P1 shallower than the front skull, the portion up to the depth P1 is not displayed. On the other hand, from the depth P1 to the depth P2 (a position which has advanced from the frontal temporal bone toward the center part to some extent), the transparency is almost half, so that the tissue in the meantime is displayed semitransparently. When the depth is deeper than P2, the transparency is 0.
The cross section is displayed at position 2.

【0038】本実施例の手術シミュレーションシステム
においては、2つの深さP1(半透明)とP2(透明度
0)を任意の深さに設定でき、仮想空間作成部13と仮
想空間表示部12はその設定に応じた半透明画像を作成
し、表示する。よって、観察目的に応じて任意の深さの
組織を任意の透明度で表示させることができる。
In the surgery simulation system of this embodiment, the two depths P1 (semi-transparent) and P2 (transparency 0) can be set to arbitrary depths, and the virtual space creation unit 13 and the virtual space display unit 12 can set the depths. Create and display a semi-transparent image according to the settings. Therefore, a tissue having an arbitrary depth can be displayed with an arbitrary transparency according to the purpose of observation.

【0039】図9は、深さP1と深さP2間の透明度を
可変にした場合の深さと透明度の関係を示すグラフであ
る。深さP1から深さP2にかけては、透明度が連続的
に低下している。この場合、P1とP2の位置およびそ
れぞれの透明度T1とT2は任意に設定できる。
FIG. 9 is a graph showing the relationship between the depth and the transparency when the transparency between the depth P1 and the depth P2 is variable. The transparency continuously decreases from the depth P1 to the depth P2. In this case, the positions of P1 and P2 and the respective transparency levels T1 and T2 can be set arbitrarily.

【0040】ところで、上述の表面表示、半透明表示等
の3次元表示は、画像を種々の視線方向に対応して回転
表示することにより、体内の病巣および重要組織(血
管、神経、臓器)の位置、大きさ、ならびに両者の位置
関係を把握することができ、医用上有用な表示となる。
そしてその回転表示に当たっては、従来3次元画像デ−
タの中心座標を中心として回転していた。
By the way, in the three-dimensional display such as the surface display and the semi-transparent display described above, the image is rotated and displayed in correspondence with the various line-of-sight directions so that the lesions and important tissues (blood vessels, nerves, organs) in the body are displayed. The position, the size, and the positional relationship between the two can be grasped, and the display is useful for medical purposes.
In the rotation display, the conventional three-dimensional image data is used.
It was rotating around the center coordinates of the data.

【0041】しかし、この回転方法では、注目する領域
(病巣、重要組織等)が中心座標から離れているとき
は、その領域が回転に伴って移動するため、その注目領
域周辺の状態を観察しずらくなる。
However, in this rotation method, when the region of interest (lesion, important tissue, etc.) is distant from the center coordinates, the region moves with rotation, so the state around the region of interest is observed. It gets harder.

【0042】そこで、本実施例における手術シミュレー
ションシステムにおいては、図10(A)に示すよう
に、頭蓋骨40内の病巣41を注目領域とした場合、こ
の病巣41を回転表示の中心点とする。図中、符号42
は病巣41周辺の血管であり、回転中心は破線の円で囲
んだカーソル43で表示される。
Therefore, in the surgery simulation system of this embodiment, as shown in FIG. 10A, when a lesion 41 in the skull 40 is set as a region of interest, this lesion 41 is set as the center point of the rotation display. In the figure, reference numeral 42
Is a blood vessel around the lesion 41, and the center of rotation is displayed by a cursor 43 surrounded by a dashed circle.

【0043】このためには、手術シミュレーションシス
テムの操作者は、まず図1の3次元位置入力装置9か
ら、病巣41を注目領域として指定する。すると、その
注目領域(病巣41)の座標と3次元画像デ−タ表示上
の中心座標との3次元空間上のズレ(x座標、y座標、
z座標において、それぞれl,m,nだけズレていると
する)が計算される。
For this purpose, the operator of the surgery simulation system first designates the lesion 41 as the attention area from the three-dimensional position input device 9 in FIG. Then, the deviation (x-coordinate, y-coordinate) in the three-dimensional space between the coordinates of the attention area (lesion 41) and the center coordinates on the three-dimensional image data display.
In the z coordinate, it is assumed that they are displaced by l, m, and n, respectively).

【0044】つぎに操作者は、種々の視線方向(回転角
度)を同じく3次元位置入力装置9(例えば3次元ジョ
イスティックから入力する。このとき回転に伴って拡大
や縮小をすることもできる。手術シミュレーションシス
テムでは、回転角度が入力される度に、次の3次元アフ
ィン変換の式
Next, the operator inputs various line-of-sight directions (rotation angles) from the same three-dimensional position input device 9 (for example, a three-dimensional joystick. At this time, it is possible to perform enlargement or reduction with rotation. In the simulation system, each time the rotation angle is input, the following three-dimensional affine transformation formula

【0045】[0045]

【数1】 [Equation 1]

【0046】(ここでx,y,zは回転移動前の画像1
画素のx座標、y座標、z座標、b,c,d,f,g,
hは回転角度のパラメータ、a,e,iは拡大または縮
小変換のパラメータを表す。)により、病巣41を回転
の中心(カーソル43内)として回転を行い、例えば図
10(B)に示すような回転画像が得られる。
(Here, x, y, z are the images 1 before the rotational movement.
Pixel x coordinate, y coordinate, z coordinate, b, c, d, f, g,
h represents a rotation angle parameter, and a, e, and i represent enlargement or reduction conversion parameters. ), Rotation is performed with the lesion 41 as the center of rotation (inside the cursor 43), and a rotated image as shown in FIG. 10B, for example, is obtained.

【0047】よって、本実施例の手術シミュレーション
システムによれば、病巣など注目する領域を中心に回転
表示ができるため、画像を見ながらの手術計画や手術シ
ミュレーションを容易に行える。
Therefore, according to the surgery simulation system of the present embodiment, since it is possible to rotate and display the region of interest such as a lesion, it is possible to easily carry out a surgery plan and a surgery simulation while viewing the image.

【0048】本実施例における回転表示は、特に定脳位
手術(ステレオタクティクス)に応用できる。定脳位手
術は頭蓋骨に小さな穴を開けてそこから針状の治療器具
を挿入し、薬液を流し込んだり、出血を吸い上げたりす
る手術である。
The rotation display in this embodiment is particularly applicable to stereotactic surgery (stereotactics). Open-cerebral position surgery is a surgery in which a small hole is made in the skull and a needle-shaped therapeutic device is inserted through it to inject a drug solution or suck up bleeding.

【0049】この定脳位手術で重要なのは、前述の治療
器具を目的の位置に確実に到達させることの他に、到達
に至るまでの経路において、他の組織への影響をできる
だけ少なくすることである。本実施例の手術シミュレー
ションシステムによれば、種々の回転表示により、回転
中心の組織に至る経路とその経路を通過する際の他組織
への影響を調べ、事前に最も他組織への影響が少ない治
療器具挿入経路を見つけ出すことが容易にできる。
What is important in this fixed-cerebral-position surgery is not only to make sure that the above-mentioned therapeutic instrument reaches the intended position but also to minimize the influence on other tissues in the route to the arrival. is there. According to the surgery simulation system of the present embodiment, various rotation displays are used to check the path to the tissue at the center of rotation and the effect on other tissue when passing through the path, and the effect on other tissue is minimized in advance. It is possible to easily find out the therapeutic instrument insertion path.

【0050】さらに、本発明の手術シミュレーションシ
ステムにおいては、視覚に訴える3次元画像表示の他
に、現実の手術に当って術者が体験するメス、ドリル等
による音、手応え等もつくり出すことができる。そこ
で、この実施例においては、このため、(1)3次元画
像デ−タの濃淡値を組織の硬さ(骨等)に関係づける手
段、(2)手術対象である組織の硬さに基づき、実際の
手術時に発生する音を合成して、操作者の耳に入れる手
段、および(3)手術対象である組織の硬さに基づき、
実際の手術時に発生する手術道具に対する手応えを合成
して、操作者に感じさせる手段の3つの手段を取り入れ
る。
Further, in the surgery simulation system of the present invention, in addition to visually appealing three-dimensional image display, it is possible to create sounds, responsiveness, etc. by a scalpel, a drill, etc. experienced by an operator in actual surgery. .. Therefore, in this embodiment, therefore, based on (1) means for relating the gray value of the three-dimensional image data to the hardness (bone etc.) of the tissue, (2) the hardness of the tissue to be operated. , Means for synthesizing sounds generated during actual surgery and putting them in the operator's ear, and (3) based on the hardness of the tissue to be operated,
The response to the surgical tools generated during the actual surgery is combined to incorporate the three means of making the operator feel.

【0051】図11は、この実施例に係る手術シミュレ
ーションシステムの概要を大まとめにして示したもので
ある。図中、デ−タ処理部50は、図1における制御部
2、画像合成部3、超並列処理装置4、エキスパートシ
ステム5、アトラスデ−タベース6、重要組織認識部
7、人工現実感発生部8および仮想空間作成部13を含
むもので、複数のモダリティ(CT、MRI等)の画像
デ−タが入力されるとともに、この手術シミュレーショ
ンに係る種々の操作デ−タを入力される。
FIG. 11 shows a general outline of the surgery simulation system according to this embodiment. In the figure, a data processing unit 50 is a control unit 2, an image synthesizing unit 3, a massively parallel processing unit 4, an expert system 5, an atlas database 6, an important organization recognition unit 7, and an artificial reality generating unit 8 in FIG. Also, the virtual space creating unit 13 is included, and image data of a plurality of modalities (CT, MRI, etc.) are input and various operation data related to this surgery simulation are also input.

【0052】一方、デ−タ処理部50は、仮想空間表示
部12および操作者OPが手に握る模擬手術道具51を
含むマニピュレータ部52と接続する。仮想空間表示部
12では、符号FDで示す正面図(患者Pと模擬手術道
具51を重畳した画像)が表示される。ここで、仮想空
間表示部12は、実際には操作者OPの眼前の操作卓5
4におけるやや斜めに倒れたディスプレイ55であり、
正面図FDはこのディスプレイ55中に表示される。
On the other hand, the data processing unit 50 is connected to the virtual space display unit 12 and the manipulator unit 52 including the simulated surgical tool 51 which the operator OP holds. On the virtual space display unit 12, a front view (an image in which the patient P and the simulated surgical instrument 51 are superimposed) indicated by reference numeral FD is displayed. Here, the virtual space display unit 12 is actually the console 5 in front of the operator OP.
It is the display 55 that is slightly tilted in 4
The front view FD is displayed in this display 55.

【0053】図12はマニピュレータ部52の構成図で
ある。すなわち、マニピュレータ部52は模擬手術道具
51に接続する3次元位置検出装置57、および3次元
位置検出装置57とともにデ−タ処理部50に接続する
音声発生部58と力発生部59、ならびに音声発生部5
8に接続するスピーカ60を備え、力発生部59は模擬
手術道具51に接続する。
FIG. 12 is a block diagram of the manipulator unit 52. That is, the manipulator unit 52 is a three-dimensional position detecting device 57 connected to the simulated surgical tool 51, and a voice generating unit 58 and a force generating unit 59 connected to the data processing unit 50 together with the three-dimensional position detecting device 57, and a voice generating unit. Part 5
The force generator 59 is connected to the simulated surgical tool 51.

【0054】よって、図1との対応で述べると、模擬手
術道具51と3次元位置検出装置57は3次元位置入力
装置9に、音声発生部58とスピーカ60は音声出力装
置11に、また力発生部59と模擬手術道具51がフォ
ースフィードバック装置10に相当する。
Therefore, as will be described with reference to FIG. 1, the simulated surgical tool 51 and the three-dimensional position detecting device 57 are connected to the three-dimensional position input device 9, the voice generating section 58 and the speaker 60 are connected to the voice output device 11, and the force is applied. The generator 59 and the simulated surgical tool 51 correspond to the force feedback device 10.

【0055】3次元位置検出装置57は、模擬手術道具
51の位置と動きを検出し、デ−タ処理部50に送る。
よって、デ−タ処理部50は、模擬手術道具51の動き
に応じて、仮想空間上の模擬手術道具51の画像を変更
・表示し、これとともに模擬手術道具51が接している
画像上の画素値と模擬手術道具51の動きを力発生部5
9および音声発生部58に送る。
The three-dimensional position detecting device 57 detects the position and movement of the simulated surgical tool 51 and sends it to the data processing section 50.
Therefore, the data processing unit 50 changes / displays the image of the simulated surgical tool 51 in the virtual space in accordance with the movement of the simulated surgical tool 51, and together with this, the pixels on the image in contact with the simulated surgical tool 51. Value and movement of simulated surgical tool 51
9 and the voice generator 58.

【0056】音声発生部58では、デ−タ処理部50か
ら送られてきた画素値と模擬手術道具51の動きを模擬
手術道具51の種類と関連づけ、手術の際に発生する音
(音質、音量等)をスピーカ60を通して発生する。
The sound generation unit 58 associates the pixel value sent from the data processing unit 50 with the movement of the simulated surgical operation tool 51 with the type of the simulated surgical operation tool 51 to generate a sound (sound quality, volume) during the operation. Etc.) through the speaker 60.

【0057】また、力発生部59では、デ−タ発生部5
0から送られてきた画素値と模擬手術道具51の動きを
模擬手術道具51の種類と関連づけ、手術の際に発生す
る力(反発力、振動)を模擬手術道具51を通して駆動
し、力を発生する。
In the force generator 59, the data generator 5
The pixel values sent from 0 and the movement of the simulated surgical tool 51 are associated with the type of the simulated surgical tool 51, and the force (repulsive force, vibration) generated during the surgery is driven through the simulated surgical tool 51 to generate the force. To do.

【0058】そして、これら音声発生部58と力発生部
59の出力(音量、音質、反発力、振動等)は、図示し
ないスイッチを操作して増減することができる。
The outputs (volume, sound quality, repulsive force, vibration, etc.) of the sound generator 58 and the force generator 59 can be increased or decreased by operating a switch (not shown).

【0059】上述の音声発生部58と力発生部59で
は、一般に軟らかいものより硬いものを加工する際に発
生する音や反発力の方が大きいことから、手術対象とす
る組織の硬さ(画素値で判断できる)に基づいて手術時
に予想される音や反発力を発生する。
In the sound generating unit 58 and the force generating unit 59 described above, the sound or repulsive force generated when processing a hard material is generally larger than that of a soft material. The sound and repulsive force expected during surgery are generated based on the value.

【0060】図13(A)のグラフは、横軸が画素値、
縦軸が音量を示す。X線CT画像においては、被写体の
X線吸収値の分布は、ハンスフィールドナンバーと呼ば
れる値(空気=−1000、水=0とする)に変換され
る。人体の骨組織(多量のCaを含む)はX線をよく吸
収して1000程度のハンスフィールドナンバーを示
し、他の軟組織にあっては40程度のハンスフィールド
ナンバーとなることから、ハンスフィールドナンバーの
高い組織は硬いという傾向が認められる。そこで本実施
例においては、ハンスフィールドナンバーを基に、画素
値(−2048〜2047)から組織の硬さに対応する
音量および反発力を発生させる。
In the graph of FIG. 13A, the horizontal axis is the pixel value,
The vertical axis represents the volume. In the X-ray CT image, the distribution of the X-ray absorption value of the subject is converted into a value called the Hansfield number (air = −1000, water = 0). Human bone tissue (containing a large amount of Ca) absorbs X-rays well and exhibits a Hansfield number of about 1000, while other soft tissues have a Hansfield number of about 40. Higher tissues tend to be harder. Therefore, in this embodiment, the volume and the repulsive force corresponding to the hardness of the tissue are generated from the pixel value (-2048 to 2047) based on the Hansfield number.

【0061】すなわち、手術を行う際に発生する手術音
は、主に硬いものを砕く音、つまり骨を加工する際に発
生する音であるから、画素値が500〜1000程度の
骨組織の吸収値帯域において音を発生させ、画素値の増
加に伴って音量の出力を上げていく。この際手術道具の
種類に応じた変換テーブルを用意して、硬い組織を加工
する際には音色を高くするなどの変化を加えることもで
きる。
That is, since the operation sound generated during the operation is mainly the sound of breaking a hard object, that is, the sound generated when processing the bone, absorption of bone tissue having a pixel value of about 500 to 1000 is absorbed. Sound is generated in the value band, and the volume output is increased as the pixel value increases. At this time, it is possible to prepare a conversion table according to the type of surgical tool and make changes such as increasing the tone color when processing a hard tissue.

【0062】他方、図13(B)に示す反発力の大きさ
については、実際の手術時には、硬いものの加工には力
を要し、また軟らかい組織でも接触すれば感触はある。
そこで、手術対象となる組織の画素値(0〜1000程
度)で力を発生させ、画素値の増加とともに徐々に出力
を大きくしていく。また特に硬い骨の加工にあっては、
振動も発生させる。これは手術道具の種類に応じた変換
テーブルを用意して、振動の振幅等を調整し、反発力に
合成する。
On the other hand, with respect to the magnitude of the repulsive force shown in FIG. 13 (B), it is necessary to process a hard object during actual surgery, and even soft tissue has a touch if touched.
Therefore, a force is generated at the pixel value (about 0 to 1000) of the tissue to be operated, and the output is gradually increased as the pixel value increases. When processing hard bones,
It also causes vibration. This prepares a conversion table according to the type of surgical tool, adjusts the amplitude of vibration, etc., and synthesizes it into a repulsive force.

【0063】[0063]

【発明の効果】以上説明したように、本発明の手術シミ
ュレーションシステムによれば、実際の手術時に目にす
ると同じ3次元の人体組織像を鮮明に見ることができ、
かつ実際の手術時に予想される音を発生し、また操作者
が握る模擬手術道具に反発力を与えるため、極めて現実
感のある有効な手術シミュレーションを行うことができ
る。
As described above, according to the surgery simulation system of the present invention, it is possible to clearly see the same three-dimensional human tissue image as seen during actual surgery.
Moreover, a sound expected at the time of actual surgery is generated and a repulsive force is applied to the simulated surgical tool held by the operator, so that an extremely realistic and effective surgical simulation can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る手術シミュレーション
システムの構成図。
FIG. 1 is a configuration diagram of a surgery simulation system according to an embodiment of the present invention.

【図2】(A),(B)はそれぞれ合成基準マーカの斜
視図と平面図。
2A and 2B are a perspective view and a plan view of a synthetic reference marker, respectively.

【図3】(A)はあるスライス位置におけるCT画像を
示す図、(B)は(A)のCT画像をずれ角分回転した
CT画像を示す図、(C)は(A)のCT画像と同一ス
ライス位置におけるMRI画像を示す図、(D)は
(C)のMRI画像を拡大したMRI画像を示す図、
(E)は(B)のCT画像と(D)のMRI画像を合成
した画像を示す図。
3A is a diagram showing a CT image at a certain slice position, FIG. 3B is a diagram showing a CT image obtained by rotating the CT image of FIG. 3A by a shift angle, and FIG. 3C is a CT image of FIG. A diagram showing an MRI image at the same slice position as that of (D), a diagram showing an enlarged MRI image of the MRI image of (C),
(E) is a figure which shows the image which combined the CT image of (B) and the MRI image of (D).

【図4】(A)は頭部全体の表面表示像、(B)〜
(H)はそれぞれ頭部に種々の方向から種々の大きさの
穴を開けたときの表面表示像を示す図。
FIG. 4A is a surface display image of the entire head, and FIGS.
(H) is a figure which shows the surface display image when the hole of various sizes is punched from various directions in the head, respectively.

【図5】(A)は頭部断層面の濃淡画像、(B)は組織
の疑似3次元画像、(C)は頭部組織の濃淡画像を示す
図。
5A shows a grayscale image of a tomographic plane of the head, FIG. 5B shows a pseudo three-dimensional image of a tissue, and FIG. 5C shows a grayscale image of a tissue of the head.

【図6】図4(A)の観察者から見た深さと透明度の関
係を示すグラフ。
FIG. 6 is a graph showing the relationship between depth and transparency as viewed by the observer in FIG.

【図7】図5(A)の観察者から見た深さと透明度の関
係を示すグラフ。
FIG. 7 is a graph showing the relationship between depth and transparency as viewed by the observer in FIG.

【図8】頭部断層面濃淡画像において透明度を段階的に
変化させる場合の深さと透明度の関係を示すグラフ。
FIG. 8 is a graph showing the relationship between the depth and the transparency when the transparency is changed stepwise in the tomographic image of the head tomographic plane.

【図9】頭部断層面濃淡画像において2つの深さ位置間
の透明度を連続的に変化させる場合の深さと透明度の関
係を示すグラフ。
FIG. 9 is a graph showing the relationship between depth and transparency when the transparency between two depth positions is continuously changed in a tomographic image of the tomographic plane of the head.

【図10】(A)は病巣を含む頭蓋骨の3次元画像を示
す図、(B)は(A)の画像を病巣を中心として回転し
た画像を示す図。
10A is a diagram showing a three-dimensional image of a skull including a lesion, and FIG. 10B is a diagram showing an image obtained by rotating the image of FIG. 10A around the lesion.

【図11】操作卓の一部斜視図を含む上記手術シミュレ
ーションシステムの構成図。
FIG. 11 is a configuration diagram of the surgery simulation system including a partial perspective view of a console.

【図12】上記手術シミュレーションシステムにおける
マニピュレータ部の構成図。
FIG. 12 is a configuration diagram of a manipulator unit in the surgery simulation system.

【図13】(A)と(B)はそれぞれ画素値と音量およ
び反発力の関係を示すグラフ。
FIGS. 13A and 13B are graphs showing the relationship between pixel value, volume, and repulsive force, respectively.

【符号の説明】[Explanation of symbols]

3 画像合成部 6 アトラスデータベース 7 重要組織認識部 9 3次元位置入力装置 10 フォースフィードバック装置 11 音声出力装置 12 仮想空間表示部 20 合成基準マーカ 41 病巣 51 手術道具 3 Image Synthesis Section 6 Atlas Database 7 Important Tissue Recognition Section 9 3D Position Input Device 10 Force Feedback Device 11 Voice Output Device 12 Virtual Space Display Section 20 Synthesis Reference Marker 41 Lesion 51 Surgical Tool

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐藤 均 栃木県大田原市下石上1385番地の1 株式 会社東芝那須工場内 (72)発明者 田村 和宏 栃木県大田原市下石上1385番の1 東芝メ デイカルエンジニアリング株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Hitoshi Sato 1385-1 Shimoishigami, Otawara-shi, Tochigi Stock company, Toshiba Nasu factory (72) Inventor Kazuhiro Tamura 1385-1, 1-5 Shimoishi, Otawara, Tochigi Cal Engineering Co., Ltd.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 操作者が握って動かすことのできる模擬
手術道具を備え、複数のモダリティの画像から手術対象
部分の各組織を含む画像を合成する画像合成手段と、前
記合成した画像を3次元表示する3次元画像表示手段
と、前記模擬手術道具をその動きを含めて前記画像に重
畳表示する重畳表示手段と、前記重畳表示手段において
模擬手術道具が組織に接したとき、両者の硬度に対応す
る音を発生し、模擬手術道具に反発力を与える人工現実
感創出手段を具備する手術シミュレーションシステム。
1. An image synthesizing means for synthesizing an image including each tissue of an operation target portion from images of a plurality of modalities, comprising a simulated surgical tool which an operator can grasp and move, and the synthesized image three-dimensionally. A three-dimensional image display means for displaying, a superimposing display means for superimposing and displaying the simulated surgical tool on the image including its movement, and when the simulated surgical tool touches a tissue in the superimposing display means, it corresponds to the hardness of both. Surgery simulation system equipped with an artificial reality creating means for producing a sound that makes a repulsive force on a simulated surgical tool.
【請求項2】 請求項1記載の手術シミュレーションシ
ステムで使用される画像合成方法であって、(1)複数
のモダリティの画像においてそれぞれ十分なコントラス
トで表示される部分を含む合成基準マーカを準備する工
程と、(2)この合成基準マーカを含めて被検体につい
て複数のモダリティの画像を得る工程と、(3)前記複
数のモダリティの画像をこれらの画像中の合成基準マー
カの大きさと角度のずれが解消するように回転、縮小・
拡大しながら重ね合せる工程を含む画像合成方法。
2. The image synthesizing method used in the surgery simulation system according to claim 1, wherein (1) preparing a synthetic reference marker including a portion displayed with sufficient contrast in images of a plurality of modalities. And (2) obtaining images of a plurality of modalities for the subject including the composite reference marker, and (3) shifting the images of the plurality of modalities in size and angle of the composite reference marker in these images. Rotation, reduction to eliminate
An image synthesizing method including a step of superimposing while enlarging.
【請求項3】 前記3次元画像表示手段は、手術対象を
表面表示する手段と、この手術対象の任意の表面に任意
の方向から任意の大きさの穴を開ける手段と、前記穴の
中の画像について、穴の奥部断層面の濃淡像、穴内の所
定組織の疑似3次元像、穴内所定組織断層面の濃淡像等
の3次元表示モードの内の任意のモードで表示する手段
を備える請求項1記載の手術シミュレーションシステ
ム。
3. The three-dimensional image display means includes means for displaying a surface of an operation target, means for making a hole of an arbitrary size in an arbitrary direction on an arbitrary surface of the operation target, and the inside of the holes. A means for displaying an image in any of three-dimensional display modes such as a grayscale image of a tomographic plane at the inner part of a hole, a pseudo three-dimensional image of a predetermined tissue in the hole, and a grayscale image of a tomographic plane of a predetermined tissue in the hole Item 1. The surgery simulation system according to item 1.
【請求項4】 前記3次元画像表示手段は、手術対象を
手前から任意の深さまで任意の透明度で半透明表示する
手段を含む請求項1記載の手術シミュレーションシステ
ム。
4. The surgery simulation system according to claim 1, wherein the three-dimensional image display means includes means for semi-transparently displaying an operation target from a near side to an arbitrary depth with an arbitrary transparency.
【請求項5】 前記3次元画像表示手段は、手術対象画
像をその中の任意の点を中心として任意の角度だけ回転
して表示する手段を含む請求項1記載の手術シミュレー
ションシステム。
5. The surgery simulation system according to claim 1, wherein the three-dimensional image display means includes means for displaying the surgery target image by rotating it by an arbitrary angle about an arbitrary point therein and displaying it.
【請求項6】 前記人工現実感創出手段は、模擬手術道
具の種類、模擬手術道具の位置と移動量、模擬手術道具
が接した人体組織の画素値を関連づけて、模擬手術道具
と人体組織の接触に対応する適当な音と反発力を発生す
る手段を含む請求項1記載の手術シミュレーションシス
テム。
6. The artificial reality creating means associates the type of simulated surgical tool, the position and movement amount of the simulated surgical tool, and the pixel value of the human body tissue with which the simulated surgical tool is in contact with each other so as to correlate the simulated surgical tool and the human body tissue. The surgery simulation system according to claim 1, further comprising means for generating an appropriate sound and repulsive force corresponding to the contact.
JP29147791A 1991-11-07 1991-11-07 Surgery simulation system Expired - Fee Related JP3198130B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29147791A JP3198130B2 (en) 1991-11-07 1991-11-07 Surgery simulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29147791A JP3198130B2 (en) 1991-11-07 1991-11-07 Surgery simulation system

Publications (2)

Publication Number Publication Date
JPH05123327A true JPH05123327A (en) 1993-05-21
JP3198130B2 JP3198130B2 (en) 2001-08-13

Family

ID=17769385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29147791A Expired - Fee Related JP3198130B2 (en) 1991-11-07 1991-11-07 Surgery simulation system

Country Status (1)

Country Link
JP (1) JP3198130B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289988A (en) * 1993-03-31 1994-10-18 Suzuki Motor Corp Three-dimensional input device
US6126450A (en) * 1998-02-04 2000-10-03 Mitsubishi Denki Kabushiki Kaisha Medical simulator system and medical simulator notifying apparatus
JP2001356861A (en) * 2000-06-13 2001-12-26 Olympus Optical Co Ltd Tactile sense presenting device and method
JP2006313178A (en) * 2005-05-06 2006-11-16 Kobe Steel Ltd Cell manipulation simulator, simulation method, and program
JP2009082452A (en) * 2007-09-28 2009-04-23 Terarikon Inc Three-dimensional image display with preprocessor based on analysis protocol
JP2011133830A (en) * 2009-12-25 2011-07-07 Mitsubishi Precision Co Ltd Simulated operation tool device for setting trocar position
JP2011525271A (en) * 2008-05-23 2011-09-15 ザ オーストラリアン ナショナル ユニヴァーシティ Image data processing
JP2012040285A (en) * 2010-08-23 2012-03-01 Fujifilm Corp Image display device, method, and program
JP2012532333A (en) * 2009-06-29 2012-12-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Tumor ablation training system and training method
WO2013014868A1 (en) 2011-07-28 2013-01-31 パナソニック株式会社 Cutting simulation device and cutting simulation program
JP2013022086A (en) * 2011-07-15 2013-02-04 Aze Ltd Medical image generation device and medical image generation program
JP2014236990A (en) * 2009-04-01 2014-12-18 コヴィディエン リミテッド パートナーシップ Microwave ablation system with user-controlled ablation size and method of use
JP2018019993A (en) * 2016-08-05 2018-02-08 国立大学法人千葉大学 Image creation apparatus, image creation system, image creation method, and dummy device
CN111374761A (en) * 2019-08-06 2020-07-07 深圳钮迈科技有限公司 Analog ablation system and method of tumor therapeutic apparatus

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348095A (en) * 2003-03-26 2004-12-09 National Institute Of Advanced Industrial & Technology Training system
KR101401338B1 (en) 2012-09-13 2014-05-29 주식회사 인피니트헬스케어 Surgery simulation method using virtual knife and apparatus thereof

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289988A (en) * 1993-03-31 1994-10-18 Suzuki Motor Corp Three-dimensional input device
US6126450A (en) * 1998-02-04 2000-10-03 Mitsubishi Denki Kabushiki Kaisha Medical simulator system and medical simulator notifying apparatus
JP2001356861A (en) * 2000-06-13 2001-12-26 Olympus Optical Co Ltd Tactile sense presenting device and method
JP2006313178A (en) * 2005-05-06 2006-11-16 Kobe Steel Ltd Cell manipulation simulator, simulation method, and program
JP2009082452A (en) * 2007-09-28 2009-04-23 Terarikon Inc Three-dimensional image display with preprocessor based on analysis protocol
JP2011525271A (en) * 2008-05-23 2011-09-15 ザ オーストラリアン ナショナル ユニヴァーシティ Image data processing
US9277969B2 (en) 2009-04-01 2016-03-08 Covidien Lp Microwave ablation system with user-controlled ablation size and method of use
US10499998B2 (en) 2009-04-01 2019-12-10 Covidien Lp Microwave ablation system with user-controlled ablation size and method of use
US10111718B2 (en) 2009-04-01 2018-10-30 Covidien Lp Microwave ablation system with user-controlled ablation size and method of use
US9867670B2 (en) 2009-04-01 2018-01-16 Covidien Lp Microwave ablation system and user-controlled ablation size and method of use
JP2016127996A (en) * 2009-04-01 2016-07-14 コヴィディエン リミテッド パートナーシップ Microwave ablation system with user-controlled ablation size, and method of use
JP2014236990A (en) * 2009-04-01 2014-12-18 コヴィディエン リミテッド パートナーシップ Microwave ablation system with user-controlled ablation size and method of use
US11562665B2 (en) 2009-06-29 2023-01-24 Koninklijke Philips N.V. Tumor ablation training system
JP2012532333A (en) * 2009-06-29 2012-12-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Tumor ablation training system and training method
JP2011133830A (en) * 2009-12-25 2011-07-07 Mitsubishi Precision Co Ltd Simulated operation tool device for setting trocar position
US8907949B2 (en) 2010-08-23 2014-12-09 Fujifilm Corporation Image display apparatus, method and program
WO2012026090A1 (en) * 2010-08-23 2012-03-01 富士フイルム株式会社 Image display device, method and program
JP2012040285A (en) * 2010-08-23 2012-03-01 Fujifilm Corp Image display device, method, and program
JP2013022086A (en) * 2011-07-15 2013-02-04 Aze Ltd Medical image generation device and medical image generation program
WO2013014868A1 (en) 2011-07-28 2013-01-31 パナソニック株式会社 Cutting simulation device and cutting simulation program
JP2018019993A (en) * 2016-08-05 2018-02-08 国立大学法人千葉大学 Image creation apparatus, image creation system, image creation method, and dummy device
CN111374761A (en) * 2019-08-06 2020-07-07 深圳钮迈科技有限公司 Analog ablation system and method of tumor therapeutic apparatus
CN111374761B (en) * 2019-08-06 2021-11-02 深圳钮迈科技有限公司 Analog ablation system and method of tumor therapeutic apparatus

Also Published As

Publication number Publication date
JP3198130B2 (en) 2001-08-13

Similar Documents

Publication Publication Date Title
US11750788B1 (en) Augmented reality guidance for spinal surgery with stereoscopic display of images and tracked instruments
US8149236B2 (en) Information processing apparatus and program
US6991605B2 (en) Three-dimensional pictograms for use with medical images
US5526812A (en) Display system for enhancing visualization of body structures during medical procedures
JP3198130B2 (en) Surgery simulation system
US20090142740A1 (en) Method and system for interactive percutaneous pre-operation surgical planning
JP4786307B2 (en) Image processing device
JP5814370B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image display method
JPH07508449A (en) Computer graphics and live video systems to better visualize body structures during surgical procedures
CN109937435A (en) System and method for carrying out analog light source positioning in the image of drafting
US20100284594A1 (en) Method and Device for 3d-Navigation On Layers of Images
JP2001084409A (en) Method and device for processing three-dimensional image
JP2001276066A (en) Three-dimensional image processor
WO2020205714A1 (en) Surgical planning, surgical navigation and imaging system
JPH08280710A (en) Real time medical device,and method to support operator to perform medical procedure on patient
JP2011131020A (en) Trocar port positioning simulation method and device therefor
CN109313818A (en) System and method for the illumination in drawing image
Salb et al. Preoperative planning and training simulation for risk reducing surgery
Stetten et al. C-Mode Real-time Tomographic Reflection for a Matrix Array Ultrasound Sonic Flashlight1
Hettig et al. Visual Navigation Support for Liver Applicator Placement using Interactive Map Displays.
Makhlouf et al. Biomechanical Modeling and Pre-Operative Projection of A Human Organ using an Augmented Reality Technique During Open Hepatic Surgery
Singla Intra-operative ultrasound-based augmented reality for laparoscopic surgical guidance

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090608

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100608

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100608

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110608

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees