JP2016168078A - Medical observation support system and 3-dimensional model of organ - Google Patents

Medical observation support system and 3-dimensional model of organ Download PDF

Info

Publication number
JP2016168078A
JP2016168078A JP2015047922A JP2015047922A JP2016168078A JP 2016168078 A JP2016168078 A JP 2016168078A JP 2015047922 A JP2015047922 A JP 2015047922A JP 2015047922 A JP2015047922 A JP 2015047922A JP 2016168078 A JP2016168078 A JP 2016168078A
Authority
JP
Japan
Prior art keywords
organ
dimensional
model
image
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015047922A
Other languages
Japanese (ja)
Other versions
JP6548110B2 (en
Inventor
健策 森
Kensaku Mori
健策 森
嘉彦 中村
Yoshihiko Nakamura
嘉彦 中村
剛 伊神
Takeshi Igami
剛 伊神
祐介 細野
Yusuke Hosono
祐介 細野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Original Assignee
Nagoya University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC filed Critical Nagoya University NUC
Priority to JP2015047922A priority Critical patent/JP6548110B2/en
Publication of JP2016168078A publication Critical patent/JP2016168078A/en
Application granted granted Critical
Publication of JP6548110B2 publication Critical patent/JP6548110B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a medical observation support system and a 3-dimensional model of an organ in which observation support with high practicality by intuitive operation is achieved.SOLUTION: A medical observation support system includes: a 3-dimensional model 16 of an organ created by a 3-dimensional molding device based on 3-dimensional image data of the organ obtained previously; a position determination unit 62 for determining a model top position indicated by an indication unit of a finger-tip 70 or the like of a practitioner in the 3-dimensional model 16; an image display unit 50 for generating and displaying an image of the organ, based on the 3-dimensional image data of the organ; and an association control unit 64 for associating the model top position with a position in the image of the organ displayed by the image display unit 50 or related information related to the position. According to the above configuration, the operation of the indication unit for indicating the 3-dimensional model 16 can be reflected in the image of the organ displayed by the image display unit 50 by using the 3-dimensional model 16 of the organ as an input interface.SELECTED DRAWING: Figure 2

Description

本発明は、被検体における臓器の観察を支援する医用観察支援システム及び臓器の3次元模型に関し、特に、直感的な操作による実用性の高い観察支援を実現するための改良に関する。   The present invention relates to a medical observation support system and a three-dimensional model of an organ that support observation of an organ in a subject, and more particularly, to an improvement for realizing highly practical observation support by an intuitive operation.

近年の医用イメージング装置の進展に伴い、診断や手術の場において、3次元仮想画像等の医用画像が広く利用されるようになってきた。斯かる技術では、事前にCT(Computed Tomography)装置や磁気共鳴映像(MRI;Magnetic Resonance Imaging)装置等により撮影された臓器の画像データ、或いは斯かる画像データに基づいてコンピュータグラフィックスの技術によりコンピュータの画面上に再現される3次元仮想画像等から、被験者における臓器の解剖学的構造を把握することができる。   With the recent development of medical imaging apparatuses, medical images such as three-dimensional virtual images have been widely used in diagnosis and surgery. In such a technique, image data of an organ imaged in advance by a CT (Computed Tomography) apparatus or a magnetic resonance imaging (MRI) apparatus, or a computer graphics technique based on such image data is used. From the three-dimensional virtual image or the like reproduced on the screen, the anatomical structure of the organ in the subject can be grasped.

3次元データに基づいて立体(3次元のオブジェクト)を作成する3次元造型装置が近年急速に発展し、注目を集めている。3次元造型機(rapid prototyping)或いは立体プリンタ(3Dプリンタ)等と称されるものがその一例である。とりわけ、透明材料を用いて前記立体を作成可能な3次元造型装置によれば、臓器の模型に関して、例えば臓器内部の血管や腫瘍等の病変部位を有色の材料で、周囲の組織を透明材料でそれぞれ構成することで、臓器内部の血管や腫瘍等を外部から視認可能な3次元模型を作成することができる。斯かる技術によれば、被験者個々の臓器の性状を反映した所謂オーダーメイドモデルとしての3次元模型を作成でき、診断や手術の支援に利用できる(例えば、非特許文献1を参照)。   In recent years, a three-dimensional molding apparatus that creates a three-dimensional object (three-dimensional object) based on three-dimensional data has rapidly developed and attracted attention. An example is a so-called three-dimensional molding machine (rapid prototyping) or a three-dimensional printer (3D printer). In particular, according to the three-dimensional molding apparatus capable of creating the three-dimensional object using a transparent material, with respect to an organ model, for example, a lesion site such as a blood vessel or a tumor inside the organ is colored and a surrounding tissue is made of a transparent material. By configuring each of them, it is possible to create a three-dimensional model in which blood vessels, tumors, and the like inside the organ can be visually recognized from the outside. According to such a technique, it is possible to create a three-dimensional model as a so-called made-to-order model reflecting the characteristics of each organ of a subject, and use it for diagnosis and surgery support (see, for example, Non-Patent Document 1).

Igami T, Nakamura Y, et al. ?Application of a Three-dimensional Print of a Liver in Hepatectomy for Small Tumors Invisible by Intraoperative Ultrasonography: Praliminary Experience.″World Journal of Surgery, _DOI.10.1007/s00268-014-2740-7, 2014Igami T, Nakamura Y, et al.? Application of a Three-dimensional Print of a Liver in Hepatectomy for Small Tumors Invisible by Intraoperative Ultrasonography: Praliminary Experience. ″ World Journal of Surgery, _DOI.10.1007 / s00268-014-2740-7 , 2014

前記医用画像の表示技術において、例えば3次元の画像を所望の方向から観望するためには、3次元画像空間に予め設定された複数の軸に対する回転を指示することでその3次元画像を動かしたり、或いは視点位置を3次元画像空間内で指定させることで再描画させる等、比較的複雑な手順が必要であった。前記3次元仮想画像においては、定量的な計測或いは切断面の表示といった処理が容易に実現される。例えば、手術に際して、切除対象となる部位の付近における血管の長さ等を測定する必要があるが、前記3次元仮想画像においては、コンピュータの画面上で対象となる区間を指定することにより、その区間の長さの算出及び算出結果の表示等が行われる。しかしながら、斯かる指定も、例えば3次元画像の中の位置をマウス等の入力デバイスを用いて行う必要があり、比較的複雑な手順となったり、或いは3次元画像が表示された2次元平面のディスプレイにおいては所望の位置を正確に入力することが困難となる場合があった。   In the medical image display technique, for example, in order to view a three-dimensional image from a desired direction, the three-dimensional image is moved by instructing rotation about a plurality of axes set in advance in the three-dimensional image space. Alternatively, a relatively complicated procedure such as redrawing by designating the viewpoint position in the three-dimensional image space is required. In the three-dimensional virtual image, processing such as quantitative measurement or display of a cut surface is easily realized. For example, during surgery, it is necessary to measure the length of a blood vessel in the vicinity of the site to be excised, but in the three-dimensional virtual image, by specifying the target section on the computer screen, Calculation of the length of a section, display of a calculation result, etc. are performed. However, such designation also requires, for example, the position in the three-dimensional image to be performed using an input device such as a mouse, which is a relatively complicated procedure, or the two-dimensional plane on which the three-dimensional image is displayed. In the display, it may be difficult to accurately input a desired position.

前記3次元造型装置により作成された前記臓器の3次元模型は、臓器の形状やその立体感の把握等に有用である。しかしながら、斯かる臓器の3次元模型では、定量的な計測或いは切断面の表示といった作業が困難である。例えば、手術に際して、切除対象となる部位の付近における血管の長さ等を測定する場合、前記臓器の3次元模型に長さ測定用のワイヤをあてて測定する等の方法がとられるが、煩雑な作業であり実用性に乏しい。一方、3次元画像を用いた場合、3次元画像上において距離を算出することは比較的容易と考えられるが、何れの点間の距離を測るのかといった入力が、前述の場合と同様に難しい。   The three-dimensional model of the organ created by the three-dimensional molding apparatus is useful for grasping the shape of the organ and its three-dimensional feeling. However, with such a three-dimensional model of an organ, operations such as quantitative measurement or display of a cut surface are difficult. For example, when measuring the length of a blood vessel or the like in the vicinity of a site to be excised at the time of surgery, a method such as applying a length measurement wire to the three-dimensional model of the organ may be used. Work and poor practicality. On the other hand, when a three-dimensional image is used, it is considered relatively easy to calculate the distance on the three-dimensional image, but it is difficult to input which point is to be measured as in the case described above.

本発明は、以上の事情を背景として為されたものであり、その目的とするところは、直感的な操作による実用性の高い観察支援を実現する医用観察支援システム及び臓器の3次元模型を提供することにある。   The present invention has been made against the background of the above circumstances, and the object of the present invention is to provide a medical observation support system and a three-dimensional model of an organ that provide highly practical observation support through intuitive operations. There is to do.

斯かる目的を達成するために、本第1発明の要旨とするところは、被検体における臓器の観察を支援する医用観察支援システムであって、予め得られた前記臓器の3次元画像データに基づいて、3次元造型装置により作成された前記臓器の3次元模型と、前記臓器の3次元模型において、既定の指示部が指し示す模型上位置を判定する位置判定部と、前記臓器の3次元画像データに基づいて、前記臓器の画像を生成して表示させる表示部と、前記模型上位置を、前記表示部により表示される前記臓器の画像における位置又は当該位置に関連する関連情報に対応付ける対応付制御部とを、備えたことを特徴とするものである。   In order to achieve such an object, the gist of the first invention is a medical observation support system that supports observation of an organ in a subject, based on three-dimensional image data of the organ obtained in advance. A three-dimensional model of the organ created by the three-dimensional molding apparatus, a position determination unit that determines a position on the model indicated by a predetermined pointing unit in the three-dimensional model of the organ, and three-dimensional image data of the organ And a display unit for generating and displaying the organ image, and an association control for associating the position on the model with a position in the organ image displayed by the display unit or related information related to the position And a section.

前記第1発明によれば、予め得られた前記臓器の3次元画像データに基づいて、3次元造型装置により作成された前記臓器の3次元模型と、前記臓器の3次元模型において、既定の指示部が指し示す模型上位置を判定する位置判定部と、前記臓器の3次元画像データに基づいて、前記臓器の画像を生成して表示させる表示部と、前記模型上位置を、前記表示部により表示される前記臓器の画像における位置又は当該位置に関連する関連情報に対応付ける対応付制御部とを、備えたものであることから、前記臓器の3次元模型を入力インターフェイスとして用いて、前記指示部が前記臓器の3次元模型を指し示す操作を、前記表示部により表示される前記臓器の画像に反映させることができる。すなわち、直感的な操作による実用性の高い観察支援を実現する医用観察支援システムを提供することができる。   According to the first invention, in the three-dimensional model of the organ created by the three-dimensional molding apparatus based on the three-dimensional image data of the organ obtained in advance, and in the three-dimensional model of the organ, a predetermined instruction A position determination unit that determines a position on the model indicated by the unit, a display unit that generates and displays an image of the organ based on the three-dimensional image data of the organ, and the display unit displays the position on the model An associated control unit that associates the position of the organ in the image of the organ or related information related to the position with the corresponding three-dimensional model of the organ as an input interface. An operation pointing to the three-dimensional model of the organ can be reflected in the image of the organ displayed by the display unit. That is, it is possible to provide a medical observation support system that realizes highly practical observation support by intuitive operation.

前記第1発明に従属する本第2発明の要旨とするところは、前記模型上位置に対応する距離を、前記臓器の画像において算出する距離算出部を備えたものである。このようにすれば、前記臓器の3次元模型を入力インターフェイスとして用いて、前記指示部の操作に対応した距離を簡便に算出できる。   The gist of the second invention subordinate to the first invention includes a distance calculation unit that calculates a distance corresponding to the position on the model in the image of the organ. In this way, the distance corresponding to the operation of the pointing unit can be easily calculated using the three-dimensional model of the organ as an input interface.

前記第1発明又は第2発明に従属する本第3発明の要旨とするところは、前記表示部は、前記臓器の3次元画像データに基づいて、前記臓器の3次元仮想画像を生成して表示させるものであり、前記模型上位置の推移に応じた切開線を、前記臓器の3次元仮想画像に合成表示させるものである。このようにすれば、前記臓器の3次元模型を入力インターフェイスとして用いて、前記臓器の3次元仮想画像上に、前記指示部の操作に応じた切開線を簡便に合成表示できる。   The gist of the third invention subordinate to the first invention or the second invention is that the display unit generates and displays a three-dimensional virtual image of the organ based on the three-dimensional image data of the organ. The incision line corresponding to the transition of the position on the model is synthesized and displayed on the three-dimensional virtual image of the organ. In this way, using the 3D model of the organ as an input interface, an incision line corresponding to the operation of the pointing unit can be simply synthesized and displayed on the 3D virtual image of the organ.

前記第1発明から第3発明の何れかに従属する本第4発明の要旨とするところは、前記表示部は、前記臓器の3次元画像データに基づいて、前記臓器の3次元仮想画像を生成して表示させるものであり、前記模型上位置を、前記臓器の3次元仮想画像に合成表示させるものである。このようにすれば、前記臓器の3次元模型を入力インターフェイスとして用いて、前記臓器の3次元仮想画像上に、前記指示部が指し示す位置を簡便に合成表示できる。   The gist of the fourth invention according to any one of the first to third inventions is that the display unit generates a three-dimensional virtual image of the organ based on the three-dimensional image data of the organ. The position on the model is synthesized and displayed on the three-dimensional virtual image of the organ. In this way, using the 3D model of the organ as an input interface, the position pointed to by the pointing unit can be easily synthesized and displayed on the 3D virtual image of the organ.

前記第1発明から第4発明の何れかに従属する本第5発明の要旨とするところは、前記表示部は、前記臓器の3次元画像データに基づいて、前記臓器の断層画像を生成して表示させるものであり、前記模型上位置を、前記臓器の断層画像に合成表示させるものである。このようにすれば、前記臓器の3次元模型を入力インターフェイスとして用いて、前記臓器の断層画像上に、前記指示部が指し示す位置を簡便に合成表示できる。   The gist of the fifth invention according to any one of the first to fourth inventions is that the display unit generates a tomographic image of the organ based on the three-dimensional image data of the organ. The position on the model is combined and displayed on the tomographic image of the organ. In this way, using the three-dimensional model of the organ as an input interface, the position indicated by the pointing unit can be easily synthesized and displayed on the tomographic image of the organ.

前記第1発明から第5発明の何れかに従属する本第6発明の要旨とするところは、既定の方向を基準とする前記臓器の3次元模型の姿勢を検出する姿勢センサを備え、前記表示部は、前記臓器の3次元画像データに基づいて、前記臓器の3次元仮想画像を生成して表示させるものであり、前記姿勢センサによる検出結果に基づいて、前記臓器の3次元仮想画像の姿勢を変更するものである。このようにすれば、前記臓器の3次元模型を入力インターフェイスとして用いて、前記臓器の3次元仮想画像の姿勢が、前記臓器の3次元模型の姿勢に追従する表示制御を実現できる。   The gist of the sixth invention according to any one of the first to fifth inventions includes an attitude sensor for detecting the attitude of the three-dimensional model of the organ with reference to a predetermined direction, and the display The unit generates and displays a three-dimensional virtual image of the organ based on the three-dimensional image data of the organ, and based on a detection result by the posture sensor, the posture of the three-dimensional virtual image of the organ Is to change. This makes it possible to realize display control in which the posture of the three-dimensional virtual image of the organ follows the posture of the three-dimensional model of the organ, using the three-dimensional model of the organ as an input interface.

前記第6発明に従属する本第7発明の要旨とするところは、滅菌済みの袋部材を備え、前記臓器の3次元模型及び前記姿勢センサは、前記袋部材に封入されたものである。このようにすれば、手術中においても、前記臓器の3次元模型を入力インターフェイスとして用いることができる。   The gist of the seventh invention, which is subordinate to the sixth invention, includes a sterilized bag member, and the three-dimensional model of the organ and the posture sensor are sealed in the bag member. In this way, the three-dimensional model of the organ can be used as an input interface even during surgery.

前記第1発明から第7発明の何れかに従属する本第8発明の要旨とするところは、前記臓器の3次元模型に取り付けられた複数のマーカと、前記指示部に取り付けられたマーカと、前記マーカの位置を検出するマーカ検出装置とを、備え、前記位置判定部は、前記マーカ検出装置による検出結果に基づいて、前記模型上位置を判定するものである。このようにすれば、実用的な態様で、前記臓器の3次元模型において前記指示部が指し示す位置を判定できる。   The gist of the present invention according to any one of the first invention to the seventh invention is that a plurality of markers attached to the three-dimensional model of the organ, a marker attached to the pointing unit, A marker detection device that detects the position of the marker, and the position determination unit determines the position on the model based on a detection result of the marker detection device. If it does in this way, the position which the said instruction | indication part points in the three-dimensional model of the said organ can be determined with a practical aspect.

前記第8発明に従属する本第9発明の要旨とするところは、前記マーカは、磁気式マーカであり、前記マーカ検出装置は、前記マーカを磁気的に検出する装置である。このようにすれば、実用的な態様で、前記臓器の3次元模型において前記指示部が指し示す位置を判定できる。   The gist of the ninth invention subordinate to the eighth invention is that the marker is a magnetic marker, and the marker detection device is a device for magnetically detecting the marker. If it does in this way, the position which the said instruction | indication part points in the three-dimensional model of the said organ can be determined with a practical aspect.

前記第8発明に従属する本第10発明の要旨とするところは、前記マーカは、光学式マーカであり、前記マーカ検出装置は、前記マーカを光学的に検出する装置である。このようにすれば、実用的な態様で、前記臓器の3次元模型において前記指示部が指し示す位置を判定できる。   The gist of the tenth aspect of the present invention that depends on the eighth aspect is that the marker is an optical marker, and the marker detection device is a device that optically detects the marker. If it does in this way, the position which the said instruction | indication part points in the three-dimensional model of the said organ can be determined with a practical aspect.

前記第8発明に従属する本第11発明の要旨とするところは、前記マーカは、2次元コードであり、前記マーカ検出装置は、撮像装置及び2次元コードリーダである。このようにすれば、実用的な態様で、前記臓器の3次元模型において前記指示部が指し示す位置を判定できる。   The gist of the eleventh invention subordinate to the eighth invention is that the marker is a two-dimensional code, and the marker detection device is an imaging device and a two-dimensional code reader. If it does in this way, the position which the said instruction | indication part points in the three-dimensional model of the said organ can be determined with a practical aspect.

本第12発明の要旨とするところは、前記第8発明から第11発明の何れかの医用観察支援システムに用いられる臓器の3次元模型であって、前記対応付制御部による対応付けの基準となる単数又は複数の基準位置が予め定められ、各基準位置に前記マーカが取り付けられたものであることを特徴とするものである。このようにすれば、実用的な態様で、前記模型上位置を、前記表示部により表示される前記臓器の画像における位置に対応付けることができる。   The gist of the twelfth aspect of the present invention is a three-dimensional model of an organ used in the medical observation support system according to any of the eighth to eleventh aspects of the present invention, wherein the correlation reference by the correlation control unit is One or a plurality of reference positions are determined in advance, and the marker is attached to each reference position. In this way, the position on the model can be associated with the position in the image of the organ displayed by the display unit in a practical manner.

本発明の一実施例である医用観察支援システムの構成を例示する図である。It is a figure which illustrates the structure of the medical observation assistance system which is one Example of this invention. 図1の医用観察支援システムに備えられた制御機能の一例の要部を説明する機能ブロック線図である。It is a functional block diagram explaining the principal part of an example of the control function with which the medical observation assistance system of FIG. 1 was equipped. 図1の医用観察支援システムにおいて、マーカとして2次元コードを備え、施術者の指先が指示部に相当する態様を概略的に示す図である。In the medical observation support system of FIG. 1, it is a figure which shows roughly the aspect which is equipped with a two-dimensional code as a marker and a practitioner's fingertip corresponds to an instruction | indication part. 図1の医用観察支援システムにおいて、マーカとして磁気式位置センサを備え、ポインタの先端部が指示部に相当する態様を概略的に示す図である。In the medical observation support system of FIG. 1, it is a figure which shows schematically the aspect which equips the magnetic position sensor as a marker and the front-end | tip part of a pointer corresponds to an instruction | indication part. 図1の医用観察支援システムにおいて、姿勢センサとしてのジャイロセンサが3次元模型に取り付けられた態様を概略的に示す図である。In the medical observation support system of FIG. 1, it is a figure which shows schematically the aspect by which the gyro sensor as an attitude | position sensor was attached to the three-dimensional model. 図5に示すジャイロセンサ及び3次元模型が、滅菌済みの袋部材に封入された様子を例示する図である。It is a figure which illustrates a mode that the gyro sensor and three-dimensional model shown in FIG. 5 were enclosed in the sterilized bag member. 図1の医用観察支援システムが臓器の手術の場で実際に用いられる様子を模式的に示す図である。It is a figure which shows typically a mode that the medical observation assistance system of FIG. 1 is actually used in the field of the surgery of an organ. 図1の医用観察支援システムに備えられたコンピュータのCPUによる本実施例の観察支援制御の一例の要部を説明するフローチャートである。It is a flowchart explaining the principal part of an example of the observation assistance control of a present Example by CPU of the computer with which the medical observation assistance system of FIG. 1 was equipped. 図1の医用観察支援システムにおいて、映像表示装置に表示される3次元仮想画像及び断層画像の具体例を示す図である。FIG. 2 is a diagram illustrating a specific example of a three-dimensional virtual image and a tomographic image displayed on a video display device in the medical observation support system of FIG. 1. 図1の医用観察支援システムに備えられた3次元模型の一構成例を撮影した写真である。It is the photograph which image | photographed the example of 1 structure of the three-dimensional model with which the medical observation assistance system of FIG. 1 was equipped.

以下、本発明の好適な実施例について、図面を参照しつつ詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施例である医用観察支援システム10(以下、単にシステム10という)の構成を例示する図である。この図1に示すように、本実施例のシステム10は、本体装置(計算機)であるコンピュータ12と、位置情報取得装置14と、観察対象となる臓器の3次元模型16とを、備えている。前記位置情報取得装置14には種々の形態が考えられ、図3〜図5等を用いて後述する。前記3次元模型16については、観察対象となる臓器の3次元画像データの説明と併せて後述する。   FIG. 1 is a diagram illustrating a configuration of a medical observation support system 10 (hereinafter simply referred to as a system 10) that is an embodiment of the present invention. As shown in FIG. 1, a system 10 according to the present embodiment includes a computer 12 that is a main body device (computer), a position information acquisition device 14, and a three-dimensional model 16 of an organ to be observed. . Various forms of the position information acquisition device 14 are conceivable, which will be described later with reference to FIGS. The three-dimensional model 16 will be described later together with the description of the three-dimensional image data of the organ to be observed.

前記コンピュータ12は、中央演算処理装置であるCPU20と、読出専用メモリであるROM22と、随時書込読出メモリであるRAM24と、記憶装置26と、入力装置28と、映像表示装置30と、入力インターフェイス32とを、備えて構成されている。前記CPU20は、前記RAM24の一時記憶機能を利用しつつ前記ROM22に予め記憶された所定のプログラムに基づいて電子情報を処理・制御する所謂マイクロコンピュータである。   The computer 12 includes a CPU 20 as a central processing unit, a ROM 22 as a read-only memory, a RAM 24 as a write / read memory as needed, a storage device 26, an input device 28, a video display device 30, and an input interface. 32. The CPU 20 is a so-called microcomputer that processes and controls electronic information based on a predetermined program stored in advance in the ROM 22 while using the temporary storage function of the RAM 24.

前記記憶装置26は、情報を記憶可能なハードディスクドライブ等の公知の記憶装置(記憶媒体)である。小型メモリカードや光ディスク等の着脱式記憶媒体であってもよい。前記入力装置28は、キーボードやマウス等の公知の入力デバイスである。前記映像表示装置30は、TFT(Thin Film Transistor Liquid Crystal)等の公知の表示装置(ディスプレイ)である。前記入力インターフェイス32は、後述する位置情報取得装置14から入力される信号を前記CPU20へ供給する公知の入力インターフェイスである。   The storage device 26 is a known storage device (storage medium) such as a hard disk drive capable of storing information. It may be a removable storage medium such as a small memory card or an optical disk. The input device 28 is a known input device such as a keyboard or a mouse. The video display device 30 is a known display device (display) such as a TFT (Thin Film Transistor Liquid Crystal). The input interface 32 is a known input interface that supplies a signal input from a position information acquisition device 14 described later to the CPU 20.

図2は、前記システム10に備えられた制御機能の一例の要部を説明する機能ブロック線図である。この図2に示す画像表示部50、位置判定部62、対応付制御部64、及び距離算出部66は、好適には、何れも前記コンピュータ12のCPU20に機能的に備えられたものであるが、各制御部が個別に複数のCPUやコンピュータに設けられると共に相互に通信が可能に構成されたものであってもよい。   FIG. 2 is a functional block diagram illustrating a main part of an example of the control function provided in the system 10. The image display unit 50, the position determination unit 62, the association control unit 64, and the distance calculation unit 66 shown in FIG. 2 are preferably all functionally provided in the CPU 20 of the computer 12. Each control unit may be individually provided in a plurality of CPUs or computers and configured to be able to communicate with each other.

図2に示すように、前記コンピュータ12に備えられた記憶装置26には、画像データベース68が設けられている。この画像データベース68には、公知のX線CT(Computed Tomography)装置や磁気共鳴映像(MRI;Magnetic Resonance Imaging)装置等によって予め得られた被検体の3次元画像データが記憶される。この3次元画像データは、少なくとも前記システム10の観察対象である臓器の3次元画像データを含む。前記3次元画像データは、X線CTにより得られたものにおいては、被検体に対して多方向からX線を照射し、被検体を透過してきたX線を検出器で検出して、透過X線量の情報をコンピュータで処理して3次元画像として再構成したものである。前記画像データベース68には、例えば、X線CTや磁気共鳴装置等により得られた被検体の3次元濃淡画像、換言すれば被検体の単位体積であるボクセル毎の画素値(濃度値)が記憶される。   As shown in FIG. 2, an image database 68 is provided in the storage device 26 provided in the computer 12. The image database 68 stores three-dimensional image data of a subject obtained in advance by a known X-ray CT (Computed Tomography) apparatus, a magnetic resonance imaging (MRI) apparatus, or the like. The three-dimensional image data includes at least three-dimensional image data of an organ that is the observation target of the system 10. In the case where the three-dimensional image data is obtained by X-ray CT, the subject is irradiated with X-rays from multiple directions, the X-ray transmitted through the subject is detected by a detector, and transmitted X The dose information is processed by a computer and reconstructed as a three-dimensional image. The image database 68 stores, for example, a three-dimensional grayscale image of a subject obtained by X-ray CT, a magnetic resonance apparatus, or the like, in other words, a pixel value (density value) for each voxel that is a unit volume of the subject. Is done.

前記3次元模型16は、前記画像データベース68に記憶された前記臓器の3次元画像データに基づいて、公知の3次元造型装置により作成されたものである。例えば、前記臓器の3次元画像データに基づいて、公知の立体プリンタ(3Dプリンタ)により前記臓器の形状を模造するように(すなわち、略同一の形状となるように)作成された3次元臓器モデル(レプリカ)である。前記3次元模型16は、好適には、観察対象となる臓器である肝臓の3次元画像データに基づいて作成された、その肝臓の3次元模型である。好適には、観察対象となる実物の臓器と同じ大きさ(実物大サイズ)に作成されたものであるが、取り扱いのし易さ等を考慮し、実物の臓器の大きさに対して拡大又は縮小して作成されるものであってもよい。この場合、前記3次元模型16の前記実物の臓器に対する拡大率又は縮小率は前記コンピュータ12に入力される。前記3次元模型16を入力インターフェイスとして用いた場合の距離或いは長さ等の測定結果は、前記拡大率又は縮小率に基づいて、前記実物の臓器の大きさに変換(換算)されて前記映像表示装置30に表示される。好適には、臓器内部の血管や腫瘍等の病変部位が有色の材料で、周囲の組織が無色の透明材料でそれぞれ構成されたものである。前記3次元模型16には、後述する対応付制御部64による対応付けの基準となる複数(少なくとも3カ所)の基準位置が予め定められている。例えば、前記複数の基準位置にそれぞれ既定の深さの凹部(穴部)が形成されている。前記3次元模型16の造型に際して、前記複数の基準位置それぞれに後述するマーカが前記3次元模型16と一体的に造型されたものであってもよい。   The three-dimensional model 16 is created by a known three-dimensional molding apparatus based on the three-dimensional image data of the organ stored in the image database 68. For example, based on the three-dimensional image data of the organ, a three-dimensional organ model created so as to imitate the shape of the organ by a known three-dimensional printer (3D printer) (that is, to have substantially the same shape) (Replica). The three-dimensional model 16 is preferably a three-dimensional model of the liver created based on three-dimensional image data of the liver that is an organ to be observed. Preferably, it is created to be the same size (real size) as the real organ to be observed, but considering the ease of handling, etc., it is enlarged or enlarged relative to the size of the real organ. It may be created by reducing the size. In this case, the enlargement ratio or reduction ratio of the three-dimensional model 16 with respect to the real organ is input to the computer 12. Measurement results such as distance or length when the three-dimensional model 16 is used as an input interface are converted (converted) into the size of the real organ based on the enlargement ratio or reduction ratio, and the video display Displayed on the device 30. Preferably, a lesion site such as a blood vessel or a tumor inside an organ is made of a colored material, and the surrounding tissue is made of a colorless transparent material. In the three-dimensional model 16, a plurality of (at least three) reference positions serving as references for association by the association control unit 64 described later are determined in advance. For example, recesses (holes) having predetermined depths are formed at the plurality of reference positions, respectively. When the three-dimensional model 16 is formed, a marker described later may be integrally formed with the three-dimensional model 16 at each of the plurality of reference positions.

前記システム10は、前記3次元模型16を指し示すために用いられる指示部を備えている。この指示部としては、鉗子の先端部、施術者の指先(例えば、人差指の指先)、棒状のポインタ(ポインティングデバイス)の先端部等、種々の態様が考えられる。すなわち、前記指示部は、既定の器具における一部であってもよいし、人体の一部であってもよい。例えば、以下に詳述するように、前記指示部であることを示すマーカが取り付けられた部位、或いはその位置と既定の関係にある部位が、前記指示部に相当する。   The system 10 includes an instruction unit used to point to the three-dimensional model 16. As the instruction unit, various modes such as a distal end portion of a forceps, a fingertip of a practitioner (for example, a fingertip of an index finger), a distal end portion of a rod-shaped pointer (pointing device), and the like can be considered. That is, the instruction unit may be a part of a predetermined instrument or a part of a human body. For example, as will be described in detail below, a part to which a marker indicating the instruction unit is attached or a part having a predetermined relationship with the position corresponds to the instruction unit.

前記3次元模型16には、好適には、複数(少なくとも3つ)のマーカが取り付けられている。例えば、予め定められた複数の前記基準位置それぞれに、各基準位置であることを示すマーカが取り付けられている。前記指示部には、好適には、少なくとも1つのマーカが取り付けられている。例えば、予め指示部として定められた鉗子の先端部、施術者の指先、或いは棒状のポインタの先端部等に、前記指示部であることを示すマーカが取り付けられている。前記システム10は、前記マーカの位置を検出するマーカ検出装置を備えている。以下、図3〜図5等を用いて、前記指示部、前記マーカ、及び前記マーカ検出装置の具体例を説明する。   A plurality (at least three) of markers are preferably attached to the three-dimensional model 16. For example, a marker indicating each reference position is attached to each of a plurality of predetermined reference positions. Preferably, at least one marker is attached to the indicating unit. For example, a marker indicating the indication unit is attached to a tip of a forceps, a fingertip of a practitioner, or a tip of a rod-shaped pointer that is set in advance as an indication unit. The system 10 includes a marker detection device that detects the position of the marker. Hereinafter, specific examples of the instruction unit, the marker, and the marker detection device will be described with reference to FIGS.

図3は、前記システム10において、前記マーカとして2次元コード34、36を備え、施術者の指先70が前記指示部に相当する態様を概略的に示す図である。図10は、前記3次元模型16の一構成例を撮影した写真である。これらの図に示す態様において、前記3次元模型16は、有色の材料で構成された血管に相当する部分16a、同じく有色(好ましくは部分16aとは異なる色)の材料で構成された病変部位に相当する部分16b、及び透明(好ましくは無色透明)の材料で構成された周囲の組織に相当する部分16cを備えている(以下の説明に用いる図4及び図5等において同じ)。前記3次元模型16(部分16c)の表面には、基準位置であることを示す複数(図3では3つ)の2次元コード34が取り付けられている。例えば、予め印刷された2次元コード34が、前記3次元模型16において予め定められた複数の前記基準位置それぞれに貼り付けられている。前記複数の2次元コード34は、図3においては特に区別していないが、前記3次元模型16におけるそれぞれの基準位置に対応してそれぞれ異なる情報を表すもの(異なったコードのマーカ)とされている。前記システム10を用いて臓器の観察を行う施術者の指先(例えば、人差指の指先)70には、前記指示部であることを示す2次元コード36が取り付けられている。好適には、予め印刷された2次元コード36が前記施術者の指先70に貼り付けられている。この2次元コード36は、少なくとも前記3次元模型16に取り付けられた前記2次元コード34とは異なるものである。ここで、前記指示部の1次元的な位置(点としての位置)を判定すれば足りる態様においては、図3に示すように1つの2次元コード36が前記施術者の指先70に取り付けられれば足りるが、前記指示部の指し示す方向(すなわち指向する方向)を判定する態様において、好ましくは、その指示部に2つ以上の2次元コード36が取り付けられる。例えば、前記施術者の指先70及び指の根本に、それぞれ2次元コード36が取り付けられる。或いは、前記指示部に対して予め方向を定めて前記2次元コード36を取り付けることで、1つの2次元コード36から前記指示部の指し示す方向を判定すると共に、撮影された画像中における前記2次元コード36の大きさ等に基づいて後述する撮像装置38からの距離を判定するものであってもよい。前記二次元コードとは、例えば日本工業規格「JIS X 0510」に規定されたQRコード(登録商標)のように、二次元(平面)的な図形からなる情報表現符号である。   FIG. 3 is a diagram schematically showing an aspect in which the system 10 is provided with two-dimensional codes 34 and 36 as the markers, and the operator's fingertip 70 corresponds to the instruction unit. FIG. 10 is a photograph taken of a configuration example of the three-dimensional model 16. In the embodiments shown in these drawings, the three-dimensional model 16 is formed on a portion 16a corresponding to a blood vessel made of a colored material, and a lesion site made of a material of the same color (preferably a color different from the portion 16a). A corresponding portion 16b and a portion 16c corresponding to the surrounding tissue made of a transparent (preferably colorless and transparent) material are provided (the same applies to FIGS. 4 and 5 used in the following description). A plurality (three in FIG. 3) of two-dimensional codes 34 indicating the reference positions are attached to the surface of the three-dimensional model 16 (part 16c). For example, a preprinted two-dimensional code 34 is attached to each of a plurality of predetermined reference positions in the three-dimensional model 16. The plurality of two-dimensional codes 34 are not particularly distinguished in FIG. 3, but represent different information corresponding to the respective reference positions in the three-dimensional model 16 (markers of different codes). Yes. A fingertip (for example, a fingertip of an index finger) 70 of a practitioner who observes an organ using the system 10 is attached with a two-dimensional code 36 indicating the instruction unit. Preferably, a preprinted two-dimensional code 36 is affixed to the practitioner's fingertip 70. The two-dimensional code 36 is different from at least the two-dimensional code 34 attached to the three-dimensional model 16. Here, in a mode in which it is sufficient to determine the one-dimensional position (position as a point) of the instruction unit, as shown in FIG. 3, if one two-dimensional code 36 is attached to the practitioner's fingertip 70, However, in the aspect of determining the direction (that is, the direction in which the pointing unit is pointing), preferably, two or more two-dimensional codes 36 are attached to the pointing unit. For example, the two-dimensional code 36 is attached to the practitioner's fingertip 70 and the base of the finger, respectively. Alternatively, by determining the direction in advance with respect to the instruction unit and attaching the two-dimensional code 36, the direction indicated by the instruction unit is determined from one two-dimensional code 36, and the two-dimensional code in the photographed image. The distance from the imaging device 38 to be described later may be determined based on the size of the code 36 or the like. The two-dimensional code is an information expression code composed of a two-dimensional (planar) figure such as a QR code (registered trademark) defined in Japanese Industrial Standard “JIS X 0510”.

図3に示す態様において、前記システム10は、前記2次元コード34、36を撮影する撮像装置38を備えている。この撮像装置38としては、撮影された画像に対応する電子データ(画像データ)を前記位置情報取得装置14に入力し得る公知のデジタルカメラが用いられる。或いは、A/Dコンバータを備えたアナログカメラ等が用いられてもよい。前記撮像装置38は、前記位置情報取得装置14に接続されており、前記撮像装置38により撮影された画像(映像)が、前記位置情報取得装置14に入力されるように構成されている。図3においては、前記撮像装置38と前記位置情報取得装置14とが別体の装置として構成された態様を図示しているが、前記撮像装置38が前記位置情報取得装置14に内蔵されたものであってもよい。前記撮像装置38が前記コンピュータ12に内蔵されたものであってもよい。前記位置情報取得装置14は、好適には、前記2次元コード34、36を識別する公知の2次元コードリーダを備えている。以下に詳述する位置判定部62が2次元コードリーダとしての機能を備えたものであってもよい。図3に示す態様においては、前記撮像装置38及び前記位置情報取得装置14が前記マーカ検出装置に相当する。   In the aspect shown in FIG. 3, the system 10 includes an imaging device 38 that captures the two-dimensional codes 34 and 36. As the imaging device 38, a known digital camera that can input electronic data (image data) corresponding to the photographed image to the position information acquisition device 14 is used. Alternatively, an analog camera or the like provided with an A / D converter may be used. The imaging device 38 is connected to the position information acquisition device 14, and an image (video) taken by the imaging device 38 is input to the position information acquisition device 14. In FIG. 3, the imaging device 38 and the position information acquisition device 14 are illustrated as separate devices, but the imaging device 38 is built in the position information acquisition device 14. It may be. The imaging device 38 may be built in the computer 12. The position information acquisition device 14 preferably includes a known two-dimensional code reader for identifying the two-dimensional codes 34 and 36. The position determination unit 62 described in detail below may have a function as a two-dimensional code reader. In the aspect shown in FIG. 3, the imaging device 38 and the position information acquisition device 14 correspond to the marker detection device.

前記位置判定部62は、前記位置情報取得装置14により取得される位置情報に基づいて、前記3次元模型16において、前記指示部が指し示す模型上位置を判定する。この模型上位置とは、前記3次元模型16の表面(部分16cの表面)における位置に対応し、好適には、その表面における1点の座標である。或いは、前記3次元模型16上の位置のみならず、前記3次元模型16が置かれる画像空間上の任意の位置であってもよい。前記3次元模型16の表面における位置に加え、前記3次元模型16に対する前記指示部の方向(指示部が3次元模型16を指し示す相対的な方向)をも判定するものであってもよい。前記位置判定部62は、好適には、前記マーカ検出装置による検出結果に基づいて、前記模型上位置を判定する。本実施例においては、前記マーカ検出装置により常に3つ以上のマーカを読み取ることができるように、前記複数のマーカが配置されている。図3に示す態様では、前記撮像装置38により前記複数の2次元コード34が撮影され、前記位置情報取得装置14に備えられた2次元コードリーダにより読み取られると、前記撮像装置38に対する前記複数の2次元コード34の位置及び方向が特定される。これにより、前記3次元模型16における前記複数の基準位置の、前記撮像装置38に対する位置及び方向が判定される。前記撮像装置38により前記2次元コード36が撮影され、前記位置情報取得装置14に備えられた2次元コードリーダにより読み取られると、前記撮像装置38に対する前記2次元コード36の位置及び方向が特定される。これにより、前記撮像装置38に対する前記施術者の指先70の位置及び方向が判定される。前記撮像装置38に対する位置及び方向から、前記3次元模型16に対する前記施術者の指先70の相対的な位置が判定される。すなわち、前記3次元模型16において、前記施術者の指先70が指し示す模型上位置が判定される。   The position determination unit 62 determines a position on the model indicated by the instruction unit in the three-dimensional model 16 based on the position information acquired by the position information acquisition device 14. The position on the model corresponds to the position on the surface of the three-dimensional model 16 (the surface of the portion 16c), and is preferably the coordinates of one point on the surface. Alternatively, not only the position on the three-dimensional model 16 but also an arbitrary position on the image space where the three-dimensional model 16 is placed. In addition to the position on the surface of the three-dimensional model 16, the direction of the pointing unit relative to the three-dimensional model 16 (relative direction in which the pointing unit points to the three-dimensional model 16) may also be determined. The position determination unit 62 preferably determines the position on the model based on the detection result by the marker detection device. In this embodiment, the plurality of markers are arranged so that three or more markers can always be read by the marker detection device. In the aspect shown in FIG. 3, when the plurality of two-dimensional codes 34 are photographed by the imaging device 38 and read by a two-dimensional code reader provided in the position information acquisition device 14, the plurality of the two-dimensional codes 34 with respect to the imaging device 38 are captured. The position and direction of the two-dimensional code 34 are specified. Accordingly, the positions and directions of the plurality of reference positions in the three-dimensional model 16 with respect to the imaging device 38 are determined. When the two-dimensional code 36 is photographed by the imaging device 38 and read by a two-dimensional code reader provided in the position information acquisition device 14, the position and direction of the two-dimensional code 36 relative to the imaging device 38 are specified. The Thereby, the position and direction of the practitioner's fingertip 70 with respect to the imaging device 38 are determined. From the position and direction with respect to the imaging device 38, the relative position of the practitioner's fingertip 70 with respect to the three-dimensional model 16 is determined. That is, in the three-dimensional model 16, the position on the model pointed by the practitioner's fingertip 70 is determined.

図3に示す態様では、前記撮像装置38により前記複数の2次元コード34が撮影され、前記位置情報取得装置14に備えられた2次元コードリーダにより読み取られると、既定の方向(例えば、鉛直方向)を基準とする前記3次元模型16の姿勢が特定される。例えば、前記3次元模型16において予め定められた前記複数の基準位置の、鉛直方向に対する傾きによって、鉛直方向を基準とする前記3次元模型16の姿勢が特定される。すなわち、図3に示す態様においては、前記2次元コード34、前記撮像装置38、及び前記位置情報取得装置14が、既定の方向を基準とする前記3次元模型16の姿勢を検出する姿勢センサとして機能する。   In the mode shown in FIG. 3, when the plurality of two-dimensional codes 34 are photographed by the imaging device 38 and read by a two-dimensional code reader provided in the position information acquisition device 14, a predetermined direction (for example, a vertical direction) The orientation of the three-dimensional model 16 with reference to the above is specified. For example, the posture of the three-dimensional model 16 with respect to the vertical direction is specified by the inclination of the plurality of reference positions determined in advance in the three-dimensional model 16 with respect to the vertical direction. That is, in the embodiment shown in FIG. 3, the two-dimensional code 34, the imaging device 38, and the position information acquisition device 14 are posture sensors that detect the posture of the three-dimensional model 16 with reference to a predetermined direction. Function.

図4は、前記システム10において、前記マーカとして磁気式位置センサ40、42を備え、ポインタの先端部72が前記指示部に相当する態様を概略的に示す図である。図4に示す態様において、前記3次元模型16(部分16c)の表面には、基準位置であることを示す複数(図4では1つのみを例示)の磁気式位置センサ40が取り付けられている。例えば、前記磁気式位置センサ40が、前記3次元模型16において予め定められた複数の前記基準位置それぞれに取り付けられている。棒状の部材である前記ポインタの先端部72には、磁気式位置センサ42が取り付けられている。前記磁気式位置センサ40、42は、前記位置情報取得装置14に有線接続されている。或いは、無線により接続されたものであってもよい。前記磁気式位置センサ40、42は、公知の磁気式位置センサであり、例えば、各磁気式位置センサ40、42とは別に図示しない発信機が設けられ、その発信機から発信される磁気信号を各磁気式位置センサ40、42が受信することにより各磁気式位置センサ40、42から5次元の情報すなわち3次元の位置情報及び2次元の方向情報が取得され、前記位置情報取得装置14に供給されるようになっている。図4に示す態様においては、前記位置情報取得装置14が前記マーカ検出装置に相当する。   FIG. 4 is a diagram schematically showing an aspect in which the magnetic position sensors 40 and 42 are provided as the markers in the system 10 and the tip 72 of the pointer corresponds to the pointing unit. In the aspect shown in FIG. 4, a plurality of magnetic position sensors 40 (only one is illustrated in FIG. 4) indicating the reference position are attached to the surface of the three-dimensional model 16 (part 16c). . For example, the magnetic position sensor 40 is attached to each of the plurality of reference positions determined in advance in the three-dimensional model 16. A magnetic position sensor 42 is attached to the tip 72 of the pointer, which is a rod-shaped member. The magnetic position sensors 40 and 42 are wired to the position information acquisition device 14. Alternatively, it may be connected wirelessly. The magnetic position sensors 40 and 42 are known magnetic position sensors. For example, a transmitter (not shown) is provided separately from the magnetic position sensors 40 and 42, and a magnetic signal transmitted from the transmitter is transmitted. By receiving the magnetic position sensors 40 and 42, five-dimensional information, that is, three-dimensional position information and two-dimensional direction information, is acquired from the magnetic position sensors 40 and 42 and supplied to the position information acquisition device 14. It has come to be. In the aspect shown in FIG. 4, the position information acquisition device 14 corresponds to the marker detection device.

図4に示す態様では、前記複数の磁気式位置センサ40それぞれに対応する位置情報及び方向情報が前記位置情報取得装置14に供給されると、前記発信機に対する前記複数の磁気式位置センサ40の位置及び方向が特定される。これにより、前記3次元模型16における前記複数の基準位置の、前記発信機に対する位置及び方向が判定される。前記磁気式位置センサ42に対応する位置情報及び方向情報が前記位置情報取得装置14に供給されると、前記発信機に対する前記磁気式位置センサ42の位置及び方向が特定される。これにより、前記発信機に対する前記ポインタの先端部72の位置及び方向が判定される。前記発信機に対する位置及び方向から、前記3次元模型16に対する前記ポインタの先端部72の相対的な位置が判定される。すなわち、前記3次元模型16において、前記ポインタの先端部72が指し示す模型上位置が判定される。   In the mode shown in FIG. 4, when position information and direction information corresponding to each of the plurality of magnetic position sensors 40 are supplied to the position information acquisition device 14, the plurality of magnetic position sensors 40 with respect to the transmitter are arranged. The position and direction are specified. Thereby, the position and direction of the plurality of reference positions in the three-dimensional model 16 with respect to the transmitter are determined. When position information and direction information corresponding to the magnetic position sensor 42 are supplied to the position information acquisition device 14, the position and direction of the magnetic position sensor 42 with respect to the transmitter are specified. Thereby, the position and direction of the tip 72 of the pointer with respect to the transmitter are determined. From the position and direction with respect to the transmitter, the relative position of the tip 72 of the pointer with respect to the three-dimensional model 16 is determined. That is, in the three-dimensional model 16, the position on the model indicated by the tip 72 of the pointer is determined.

図4に示す態様では、前記複数の磁気式位置センサ40それぞれに対応する位置情報及び方向情報が前記位置情報取得装置14に供給されると、既定の方向(例えば、鉛直方向)を基準とする前記3次元模型16の姿勢が特定される。すなわち、図4に示す態様においては、前記磁気式位置センサ40及び前記位置情報取得装置14が、既定の方向を基準とする前記3次元模型16の姿勢を検出する姿勢センサとして機能する。   In the mode shown in FIG. 4, when position information and direction information corresponding to each of the plurality of magnetic position sensors 40 are supplied to the position information acquisition device 14, a predetermined direction (for example, a vertical direction) is used as a reference. The posture of the three-dimensional model 16 is specified. That is, in the embodiment shown in FIG. 4, the magnetic position sensor 40 and the position information acquisition device 14 function as a posture sensor that detects the posture of the three-dimensional model 16 with a predetermined direction as a reference.

前記システム10は、前記マーカとして光学式マーカを備えたものであってもよい。例えば、図3又は図4を用いて前述した態様において、前記2次元コード34、36或いは前記磁気式位置センサ40、42が光学式マーカに置換されたものであってもよい。この光学式マーカとしては、近赤外線を放出するLEDをはじめとする発光素子、或いは光を反射する反射マーカ等が好適に用いられる。斯かる態様においては、近赤外線を検出する近赤外カメラ等、前記光学式マーカの位置及び方向を検出するマーカ検出装置が備えられる。そのマーカ検出装置により検出された各光学式マーカの位置及び方向が前記位置情報取得装置14に供給され、前述と同様の手法により、前記3次元模型16に対する前記指示部の相対的な位置が判定される。すなわち、前記3次元模型16において、前記指示部が指し示す模型上位置が判定される。   The system 10 may include an optical marker as the marker. For example, in the embodiment described above with reference to FIG. 3 or FIG. 4, the two-dimensional codes 34 and 36 or the magnetic position sensors 40 and 42 may be replaced with optical markers. As this optical marker, a light emitting element such as an LED that emits near infrared rays, a reflective marker that reflects light, or the like is preferably used. In such an aspect, a marker detection device that detects the position and direction of the optical marker, such as a near-infrared camera that detects near-infrared rays, is provided. The position and direction of each optical marker detected by the marker detection device is supplied to the position information acquisition device 14, and the relative position of the pointing unit with respect to the three-dimensional model 16 is determined by the same method as described above. Is done. That is, in the three-dimensional model 16, the position on the model indicated by the instruction unit is determined.

図5は、前記システム10において、姿勢センサとしてのジャイロセンサ44が前記3次元模型16に取り付けられた態様を概略的に示す図である。図5に示す態様において、前記3次元模型16には、姿勢センサとしてのジャイロセンサ44が取り付けられている。このジャイロセンサ44は、既定の方向(例えば、鉛直方向)に対する角度及び方向を検出する公知のジャイロセンサである。図5に示す態様において、前記位置情報取得装置14は、前記ジャイロセンサ44による検出結果を無線により受信する受信部として機能する。前記ジャイロセンサ44による検出結果が前記位置情報取得装置14に供給されると、前記既定の方向を基準とする前記3次元模型16の姿勢が特定される。図5に示す態様において、前記3次元模型16に対する前記指示部の相対的な位置を判定するためには、更に別のマーカが前記3次元模型16に取り付けられる。例えば、図3を用いて前述した前記2次元コード34或いは図4を用いて前述した前記磁気式位置センサ40等が、前記3次元模型16に取り付けられる。ここで、前記3次元模型16が前記ジャイロセンサ44を備えた態様においては、図3又は図4を用いて先述した態様に比べて少ない数のマーカにより、前記3次元模型16に対する前記指示部の相対的な位置を判定することができる。   FIG. 5 is a diagram schematically showing an aspect in which a gyro sensor 44 as an attitude sensor is attached to the three-dimensional model 16 in the system 10. In the embodiment shown in FIG. 5, a gyro sensor 44 as an attitude sensor is attached to the three-dimensional model 16. The gyro sensor 44 is a known gyro sensor that detects an angle and a direction with respect to a predetermined direction (for example, a vertical direction). In the aspect illustrated in FIG. 5, the position information acquisition device 14 functions as a reception unit that wirelessly receives the detection result of the gyro sensor 44. When the detection result by the gyro sensor 44 is supplied to the position information acquisition device 14, the posture of the three-dimensional model 16 with respect to the predetermined direction is specified. In the embodiment shown in FIG. 5, another marker is attached to the three-dimensional model 16 in order to determine the relative position of the pointing unit with respect to the three-dimensional model 16. For example, the two-dimensional code 34 described above with reference to FIG. 3 or the magnetic position sensor 40 described above with reference to FIG. 4 is attached to the three-dimensional model 16. Here, in the aspect in which the three-dimensional model 16 includes the gyro sensor 44, the number of markers is smaller than that in the aspect described above with reference to FIG. 3 or FIG. The relative position can be determined.

以上、図3〜図5を用いて、前記システム10における前記指示部、前記マーカ、及び前記マーカ検出装置の具体例を説明したが、他の態様も考えられる。例えば、前記3次元模型16の表面(すなわち、前記部分16cの表面)に接触式位置センサを備え、前記3次元模型16に対する前記指示部の接触位置を前記接触式位置センサにより検出するものであってもよい。斯かる態様においては、前記接触式位置センサによる検出結果に基づいて、前記3次元模型16に対する前記指示部の相対的な位置が判定される。すなわち、前記3次元模型16において、前記指示部が指し示す模型上位置が判定される。或いは、超音波発信器を備え、その超音波発信器が発する超音波を複数のセンサで受信し、その時間差に応じて位置を検出する超音波検出装置により、前記3次元模型16に対する前記指示部の相対的な位置が判定されるものであってもよい。或いは、電波を発するアクティブタイプの無線タグを備えたRFID(Radio Frequency Identification)システムが、前記マーカ及び前記マーカ検出装置として用いられるものであってもよい。   As mentioned above, although the specific example of the said instruction | indication part in the said system 10, the said marker, and the said marker detection apparatus was demonstrated using FIGS. 3-5, another aspect is also considered. For example, a contact-type position sensor is provided on the surface of the three-dimensional model 16 (that is, the surface of the portion 16c), and the contact position of the pointing unit with respect to the three-dimensional model 16 is detected by the contact-type position sensor. May be. In such an aspect, the relative position of the pointing unit with respect to the three-dimensional model 16 is determined based on the detection result by the contact-type position sensor. That is, in the three-dimensional model 16, the position on the model indicated by the instruction unit is determined. Alternatively, the pointing unit for the three-dimensional model 16 is provided by an ultrasonic detector that includes an ultrasonic transmitter, receives ultrasonic waves generated by the ultrasonic transmitter with a plurality of sensors, and detects a position according to the time difference. The relative position may be determined. Alternatively, an RFID (Radio Frequency Identification) system including an active type radio tag that emits radio waves may be used as the marker and the marker detection device.

図6は、前記ジャイロセンサ44が取り付けられた前記3次元模型16が袋部材74に封入された様子を例示する図である。前記システム10は、好適には、滅菌済みの袋部材74を備えている。この袋部材74は、ビニル樹脂等から成る無色透明な袋であり、手術室内に持ち込むことができる程度の滅菌処理が施されている。前記3次元模型16及び前記ジャイロセンサ44は、前記袋部材74に封入された状態で手術室内に持ち込まれ、前記システム10における観察支援に用いられる。前記3次元模型16及び前記ジャイロセンサ44が前記袋部材74に封入された後、その袋部材74内部の空気が抜かれた所謂真空パック様の状態で用いられるものであってもよい。図3を用いて前述した前記2次元コード34或いは図4を用いて前述した前記磁気式位置センサ40等が取り付けられた前記3次元模型16が、前記2次元コード34或いは前記磁気式位置センサ40と共に前記袋部材74に封入された状態で用いられるものであってもよい。   FIG. 6 is a diagram illustrating a state in which the three-dimensional model 16 to which the gyro sensor 44 is attached is enclosed in a bag member 74. The system 10 preferably includes a sterilized bag member 74. The bag member 74 is a colorless and transparent bag made of vinyl resin or the like, and is sterilized to such an extent that it can be brought into the operating room. The three-dimensional model 16 and the gyro sensor 44 are brought into the operating room in a state of being enclosed in the bag member 74 and used for observation support in the system 10. After the three-dimensional model 16 and the gyro sensor 44 are sealed in the bag member 74, the bag member 74 may be used in a so-called vacuum pack-like state in which the air inside the bag member 74 is removed. The three-dimensional model 16 to which the two-dimensional code 34 described above using FIG. 3 or the magnetic position sensor 40 described above using FIG. 4 is attached is the two-dimensional code 34 or the magnetic position sensor 40. In addition, it may be used in a state of being enclosed in the bag member 74.

前記画像表示部50は、図示しないグラフィックスプロセッサ等を介して、前記システム10による制御に係る各種画像(映像)を前記映像表示装置30に表示させる。前記画像表示部50は、前記画像データベース68に記憶された前記臓器の3次元画像データに基づいて、前記臓器の画像を生成して前記映像表示装置30に表示させる。斯かる処理を行うため、前記画像表示部50は、図2に示すように、3次元仮想画像表示部52、断層画像表示部54、指示位置表示部56、切開線表示部58、及び距離表示部60を備えている。   The image display unit 50 displays various images (videos) related to control by the system 10 on the video display device 30 via a graphics processor or the like (not shown). The image display unit 50 generates an image of the organ based on the three-dimensional image data of the organ stored in the image database 68 and displays the image on the video display device 30. In order to perform such processing, the image display unit 50 includes a three-dimensional virtual image display unit 52, a tomographic image display unit 54, an indicated position display unit 56, an incision line display unit 58, and a distance display as shown in FIG. Part 60 is provided.

前記3次元仮想画像表示部52は、前記画像データベース68に記憶された前記臓器の3次元画像データに基づいて、前記臓器の3次元仮想画像を生成して前記映像表示装置30に表示させる。この臓器の3次元仮想画像は、前記臓器全体の形状を示す像であり、好適には、前記臓器の外形像である。すなわち、前記3次元仮想画像表示部52は、好適には、前記3次元画像データに基づいて前記臓器の外形(例えば、任意の方向から視た外観を表す像)を示す図像を表示させる。すなわち、前記システム10による観察対象である臓器に対応して予め得られて前記画像データベース68に記憶された3次元画像データを読み出し、例えばボリュームレンダリング法或いはサーフェスレンダリング法等の公知の技術によりその3次元画像データに基づいて前記臓器の外形像を生成して前記映像表示装置30に表示させる。図3〜図5及び図7においては、前記臓器の3次元画像データに基づいて生成された、その臓器の3次元仮想画像80が前記映像表示装置30に表示された様子を例示している。   The three-dimensional virtual image display unit 52 generates a three-dimensional virtual image of the organ based on the three-dimensional image data of the organ stored in the image database 68 and displays it on the video display device 30. The three-dimensional virtual image of the organ is an image showing the shape of the whole organ, and is preferably an outline image of the organ. That is, the three-dimensional virtual image display unit 52 preferably displays a graphic image showing the external shape of the organ (for example, an image representing an external appearance viewed from an arbitrary direction) based on the three-dimensional image data. That is, the three-dimensional image data obtained in advance corresponding to the organ to be observed by the system 10 and stored in the image database 68 is read, and the 3D image data is read by a known technique such as volume rendering or surface rendering. An outline image of the organ is generated based on the dimensional image data and displayed on the video display device 30. 3 to 5 and 7 exemplify a state in which the three-dimensional virtual image 80 of the organ generated based on the three-dimensional image data of the organ is displayed on the video display device 30.

前記断層画像表示部54は、前記画像データベース68に記憶された前記臓器の3次元画像データに基づいて、指定された位置又は切断線において前記臓器の断層画像を生成して前記映像表示装置30に表示させる。この臓器の断層画像は、前記臓器の断面を示す像である。予めX線CT装置等により得られた断層画像がそのまま表示されるものであってもよいし、3次元画像データに基づいて生成される仮想的な断面に相当する画像であってもよい。すなわち、前記断層画像表示部54は、前記システム10による観察対象である臓器に対応して予め得られて前記画像データベース68に記憶された3次元画像データを読み出し、公知の技術によりその3次元画像データに基づいて前記臓器の断面を示す像を生成して前記映像表示装置30に表示させる。図7においては、前記臓器の3次元画像データに基づいて生成された、その臓器の断層画像86が前記映像表示装置30に表示された様子を例示している。   The tomographic image display unit 54 generates a tomographic image of the organ at a specified position or cutting line based on the three-dimensional image data of the organ stored in the image database 68, and displays it on the video display device 30. Display. This tomographic image of the organ is an image showing a cross section of the organ. A tomographic image obtained in advance by an X-ray CT apparatus or the like may be displayed as it is, or an image corresponding to a virtual cross section generated based on three-dimensional image data. That is, the tomographic image display unit 54 reads out the three-dimensional image data obtained in advance corresponding to the organ to be observed by the system 10 and stored in the image database 68, and the three-dimensional image is read by a known technique. Based on the data, an image showing a cross section of the organ is generated and displayed on the video display device 30. FIG. 7 illustrates a state where a tomographic image 86 of the organ generated based on the three-dimensional image data of the organ is displayed on the video display device 30.

前記対応付制御部64は、前記3次元模型16において前記指示部が指し示す模型上位置を、前記映像表示装置30に表示される前記臓器の画像における位置又は当該位置に関連する関連情報に対応付ける。すなわち、前記3次元模型16及び前記指示部に対応する座標系と、前記映像表示装置30に表示される前記臓器の画像に対応する座標系とを対応付ける座標系レジストレーション処理を行う。座標系の対応付けではなく、臓器における複数の特徴点に基づいて、それら特徴点の位置関係が前記3次元模型16と前記映像表示装置30に表示される前記臓器の画像とで一致するように対応付けが行われるものであってもよい。前記対応付制御部64は、好適には、前記模型上位置を、前記3次元仮想画像表示部52により表示される前記臓器の3次元仮想画像80における位置に対応付ける。好適には、前記模型上位置を、前記断層画像表示部54により表示される前記臓器の断層画像86における位置に対応付ける。以下、前記対応付制御部64による対応付けに係る具体的なアルゴリズムの一例を説明する。   The association control unit 64 associates the position on the model indicated by the instruction unit in the three-dimensional model 16 with the position in the image of the organ displayed on the video display device 30 or related information related to the position. That is, a coordinate system registration process for associating the coordinate system corresponding to the three-dimensional model 16 and the pointing unit with the coordinate system corresponding to the organ image displayed on the video display device 30 is performed. Based on a plurality of feature points in the organ, not in the coordinate system, so that the positional relationship between the feature points matches between the three-dimensional model 16 and the image of the organ displayed on the video display device 30. Correlation may be performed. The association control unit 64 preferably associates the position on the model with the position in the three-dimensional virtual image 80 of the organ displayed by the three-dimensional virtual image display unit 52. Preferably, the position on the model is associated with a position in the tomographic image 86 of the organ displayed by the tomographic image display unit 54. Hereinafter, an example of a specific algorithm related to the association by the association control unit 64 will be described.

前記システム10における、前記指示部に対応する座標系と前記臓器の画像に対応する座標系との対応付け(座標系レジストレーション)について説明する。前記指示部に対応する座標系をL、前記指示部に取り付けられた前記マーカに対応する座標系をM、前記マーカを検出するマーカ検出装置(例えば、位置情報取得装置14或いは撮像装置38等)に対応する座標系をP、前記臓器の画像に対応する座標系をIとする。例えば図3のように前記指示部のマーカと前記3次元模型16のマーカとが共通する撮像装置によって撮影される場合等は、両者の座標系L、Mは共通するものとなる。前記座標系Lと前記座標系Mとが実質的に同一である場合には、以下に説明する座標系Lから座標系Mへの変換は行われなくともよい。前記座標系Lから前記座標系Mへの変換行列をTML、前記座標系Mから前記座標系Pへの変換行列をTPM、前記座標系Pから前記座標系Iへの変換行列をTIPとすると、前記指示部に対応する座標系Lにおける座標pLは、次の(1)式に示すように、前記変換行列TML、TPM、TIPを用いて前記臓器の画像に対応する座標系Iにおける座標pIに変換される。すなわち、前記座標系Lにおける座標pLは、次の(1)式により前記座標系Iにおける座標pIに対応付けられる。剛体の座標変換は、回転及び平行移動を要素とする。このため、変換行列Tによる座標pの変換は、回転行列R及び変換ベクトルtを用いて次の(2)式のように表される。
I=TIPPMMLL ・・・(1)
Tp=Rp+t ・・・(2)
The association (coordinate system registration) between the coordinate system corresponding to the pointing unit and the coordinate system corresponding to the organ image in the system 10 will be described. The coordinate system corresponding to the instruction unit is L, the coordinate system corresponding to the marker attached to the instruction unit is M, and the marker detection device that detects the marker (for example, the position information acquisition device 14 or the imaging device 38). Let P be the coordinate system corresponding to, and I be the coordinate system corresponding to the organ image. For example, as shown in FIG. 3, when the marker of the pointing unit and the marker of the three-dimensional model 16 are photographed by a common imaging device, the coordinate systems L and M of both are common. When the coordinate system L and the coordinate system M are substantially the same, the conversion from the coordinate system L to the coordinate system M described below may not be performed. T ML is a transformation matrix from the coordinate system L to the coordinate system M, T PM is a transformation matrix from the coordinate system M to the coordinate system P, and T IP is a transformation matrix from the coordinate system P to the coordinate system I. When the coordinates p L in the coordinate system L corresponding to the instruction unit, as shown in the following equation (1), corresponding to an image of the organ using the transformation matrix T ML, T PM, T IP It is converted into the coordinate p I in the coordinate system I. That is, the coordinates p L in the coordinate system L are associated by the following equation (1) in the coordinate p I in the coordinate system I. Rigid body coordinate transformation uses rotation and translation as elements. Therefore, the transformation of the coordinate p by the transformation matrix T is expressed as the following equation (2) using the rotation matrix R and the transformation vector t.
p I = T IP T PM T ML p L (1)
Tp = Rp + t (2)

前記システム10において、前記指示部に対応する位置及び方向(例えば、ポインタの先端部の位置及び方向)と、前記指示部に取り付けられたマーカの位置及び方向(例えば、ポインタにおけるマーカの取り付け位置及び方向)との関係は予め定められている。この関係が、前記座標系Lから前記座標系Mへの変換行列TMLに相当する。前記マーカ検出装置により、前記指示部に取り付けられたマーカの位置及び方向に相当する情報が取得される。この情報により、前記座標系Mから前記座標系Pへの変換行列TPMが定まる。すなわち、前記指示部に取り付けられたマーカの位置及び方向に相当する情報を前記マーカ検出装置により検出することで、前記指示部に対応する座標系Lにおける座標pLを、前記マーカ検出装置に対応する座標系Pにおける座標pPに変換できる。前記マーカ検出装置に対応する座標系Pにおける座標pPは、次の(3)式に示すように、前記変換行列TIPを用いて前記臓器の画像に対応する座標系Iにおける座標pIに変換される。
I=TIPP ・・・(3)
In the system 10, the position and direction corresponding to the pointing unit (for example, the position and direction of the tip of the pointer), the position and direction of the marker attached to the pointing unit (for example, the marker mounting position and (Direction) is determined in advance. This relationship corresponds to the transformation matrix TML from the coordinate system L to the coordinate system M. Information corresponding to the position and direction of the marker attached to the instruction unit is acquired by the marker detection device. With this information, a transformation matrix T PM from the coordinate system M to the coordinate system P is determined. That is, by detecting information corresponding to the position and direction of the marker attached to the instruction unit by the marker detection device, the coordinate p L in the coordinate system L corresponding to the instruction unit is associated with the marker detection device. It can be converted into the coordinate p P in the coordinate system P of. Coordinate p P in the coordinate system P corresponding to the marker detecting device, as shown in the following equation (3), the coordinates p I in a coordinate system I corresponding to the image of the organ using the transformation matrix T IP Converted.
p I = T IP p P (3)

前記マーカ検出装置に対応する座標系Pから前記臓器の画像に対応する座標系Iへの変換は、例えば、それぞれの座標系における基準位置を一致させることにより実現される。好適には、前記臓器の画像に対応する座標系Iにおいて、前記指示部に対応する座標系Lとの対応付けに係る基準位置が予め定められている。この基準位置は、前記3次元模型16に定められた基準位置の何れかであることが好ましい。前記3次元模型16において、前記指示部が前記基準位置を指し示している場合において、前記マーカ検出装置に対応する座標系Pにおける基準位置と、前記臓器の画像に対応する座標系Iにおける基準位置とを一致させる対応付けを行うことで、前記座標系Pから前記座標系Iへの変換行列TIPが定まる。例えば、前記マーカ検出装置に対応する座標系Pにおける基準位置の座標をpi、前記臓器の画像に対応する座標系Iにおける基準位置の座標をqi、基準位置の数をNとして、次の(4)式を満たす変換行列T*が、前記変換行列TIPに相当する。
The conversion from the coordinate system P corresponding to the marker detection device to the coordinate system I corresponding to the image of the organ is realized, for example, by matching reference positions in the respective coordinate systems. Preferably, in the coordinate system I corresponding to the organ image, a reference position relating to the association with the coordinate system L corresponding to the pointing unit is predetermined. This reference position is preferably one of the reference positions defined for the three-dimensional model 16. In the three-dimensional model 16, when the pointing unit points to the reference position, a reference position in the coordinate system P corresponding to the marker detection device, and a reference position in the coordinate system I corresponding to the organ image by performing mapping to match the transformation matrix T IP to the coordinate system I is determined from the coordinate system P. For example, assuming that the coordinate of the reference position in the coordinate system P corresponding to the marker detection device is pi, the coordinate of the reference position in the coordinate system I corresponding to the organ image is qi, and the number of reference positions is N, the following (4 ) is the transformation matrix T * which satisfies the equation, corresponding to the transformation matrix T IP.

以上、前記指示部に対応する座標系Lと前記臓器の画像に対応する座標系Iとの対応付けについて説明したが、前記3次元模型16に対応する座標系と前記臓器の画像に対応する座標系Iとの対応付けも、前記と同様のアルゴリズムにより実現される。すなわち、前記と同様のアルゴリズムにより、前記3次元模型16において予め定められた複数の基準位置と、前記臓器の画像に対応する座標系Iにおいて予め定められた複数の基準位置とを、前記座標系L及びIの相互間で一致させることにより実現される。前記指示部に対応する座標系Lと前記臓器の画像に対応する座標系Iとが対応付けられ、且つ、前記3次元模型16に対応する座標系と前記臓器の画像に対応する座標系Iとが対応付けられることで、前記3次元模型16において前記指示部が指し示す模型上位置を、前記画像表示部50により表示される前記臓器の画像に対応付けることができる。   The association between the coordinate system L corresponding to the instruction unit and the coordinate system I corresponding to the organ image has been described above, but the coordinate system corresponding to the three-dimensional model 16 and the coordinates corresponding to the organ image are described. The association with the system I is also realized by the same algorithm as described above. That is, by the same algorithm as described above, a plurality of reference positions predetermined in the three-dimensional model 16 and a plurality of reference positions predetermined in the coordinate system I corresponding to the image of the organ are converted into the coordinate system. This is realized by matching between L and I. A coordinate system L corresponding to the instruction unit is associated with a coordinate system I corresponding to the organ image, a coordinate system corresponding to the three-dimensional model 16, and a coordinate system I corresponding to the organ image. Are associated with each other, the position on the model indicated by the instruction unit in the three-dimensional model 16 can be associated with the image of the organ displayed by the image display unit 50.

前記距離算出部66は、前記対応付制御部64による対応付けの結果に基づいて、前記画像表示部50により表示される前記臓器の画像における、前記3次元模型16において前記指示部が指し示す模型上位置に対応する距離を算出する。具体的には、前記画像データベース68に記憶された前記臓器の3次元画像データに基づいて前記距離を算出する。前記距離算出部66は、好適には、前記臓器の画像における、前記3次元模型16において前記指示部が指し示す主要な血管の距離(血管の長さ)を算出する。この主要な血管とは、前記指示部が指し示す方向(臓器の内部)に存在する動脈又は静脈であり、例えば一般に解剖学的名称がつけられた血管である。前記距離算出部66は、好適には、前記臓器の画像における、前記3次元模型16において前記指示部が指し示す模型上位置と前記臓器における病変部位との距離を算出する。前記距離算出部66は、好適には、前記臓器の画像における、前記3次元模型16において前記指示部が指し示す複数の模型上位置(例えば、続けて指し示された2点)相互間の距離を算出する。   The distance calculation unit 66 is based on the result of association by the association control unit 64, and on the model indicated by the instruction unit in the three-dimensional model 16 in the organ image displayed by the image display unit 50. The distance corresponding to the position is calculated. Specifically, the distance is calculated based on the three-dimensional image data of the organ stored in the image database 68. The distance calculation unit 66 preferably calculates the distance (blood vessel length) of the main blood vessel indicated by the instruction unit in the three-dimensional model 16 in the organ image. The main blood vessels are arteries or veins existing in the direction (inside the organ) indicated by the pointing unit, and are blood vessels generally given anatomical names, for example. The distance calculation unit 66 preferably calculates a distance between a position on the model indicated by the instruction unit in the three-dimensional model 16 and a lesion site in the organ in the image of the organ. Preferably, the distance calculation unit 66 calculates a distance between a plurality of model positions (for example, two points indicated in succession) indicated by the instruction unit in the three-dimensional model 16 in the organ image. calculate.

前記画像表示部50は、前記対応付制御部64による対応付けの結果に基づいて、前記3次元模型16において前記指示部が指し示す模型上位置を、前記臓器の画像に反映させる。すなわち、前記3次元模型16において前記指示部が指し示す模型上位置の変化に応じて、前記映像表示装置30に表示される前記臓器の画像を変化させる。或いは、前記映像表示装置30に表示される前記臓器の画像に付加的な画像(数値等のテキストを含む)を合成表示させる。この場合、前記付加的な画像等が位置に関連する関連情報に該当する。   Based on the result of association by the association control unit 64, the image display unit 50 reflects the position on the model indicated by the instruction unit in the three-dimensional model 16 in the image of the organ. That is, the image of the organ displayed on the video display device 30 is changed according to the change in the position on the model indicated by the instruction unit in the three-dimensional model 16. Alternatively, an additional image (including text such as numerical values) is synthesized and displayed on the organ image displayed on the video display device 30. In this case, the additional image corresponds to related information related to the position.

前記距離表示部60は、前記距離算出部66により算出された距離を前記映像表示装置30に表示させる。好適には、前記映像表示装置30に表示される前記臓器の画像に、前記距離算出部66により算出された距離に対応する数値を合成表示させる。前記距離算出部66が、前記3次元模型16において前記指示部が指し示す血管の長さを算出する態様においては、前記臓器の画像において対象となる血管を示すと共に、前記血管の長さを表す数値を合成表示させる。前記距離算出部66が、前記3次元模型16において前記指示部が指し示す模型上位置と前記臓器における病変部位との距離を算出する態様においては、前記臓器の画像において対象となる病変部位を示すと共に、前記距離を表す数値を合成表示させる。前記距離算出部66が、前記3次元模型16において前記指示部が指し示す複数の模型上位置相互間の距離を算出する態様においては、前記臓器の画像において前記指示部が指し示す複数の位置を示すと共に、前記距離を表す数値を合成表示させる。この場合、当該数値が位置に関連する関連情報に該当する。   The distance display unit 60 displays the distance calculated by the distance calculation unit 66 on the video display device 30. Preferably, a numerical value corresponding to the distance calculated by the distance calculation unit 66 is synthesized and displayed on the organ image displayed on the video display device 30. In the aspect in which the distance calculation unit 66 calculates the length of the blood vessel pointed to by the instruction unit in the three-dimensional model 16, the numerical value indicating the blood vessel length as well as the target blood vessel in the organ image. Is displayed. In the aspect in which the distance calculation unit 66 calculates the distance between the position on the model indicated by the instruction unit in the three-dimensional model 16 and the lesion site in the organ, the target site in the organ image is indicated. The numerical value representing the distance is synthesized and displayed. In the aspect in which the distance calculation unit 66 calculates the distance between the plurality of model positions indicated by the instruction unit in the three-dimensional model 16, the distance calculation unit 66 indicates the plurality of positions indicated by the instruction unit in the organ image. The numerical value representing the distance is synthesized and displayed. In this case, the numerical value corresponds to related information related to the position.

前記3次元仮想画像表示部52は、前記位置情報取得装置14或いは前記ジャイロセンサ44等により取得される前記3次元模型16の姿勢情報に基づいて、前記映像表示装置30に表示される前記3次元仮想画像80の姿勢を変更する。すなわち、前記位置情報取得装置14或いは前記ジャイロセンサ44等による検出結果に基づいて前記位置判定部62により判定される、既定の方向(例えば、鉛直方向)を基準とする前記3次元模型16の姿勢の変化に基づいて、前記映像表示装置30に表示される前記3次元仮想画像80の姿勢(方向及び角度)を変更する。   The three-dimensional virtual image display unit 52 is configured to display the three-dimensional image displayed on the video display device 30 based on the posture information of the three-dimensional model 16 acquired by the position information acquisition device 14 or the gyro sensor 44 or the like. The posture of the virtual image 80 is changed. That is, the posture of the three-dimensional model 16 based on a predetermined direction (for example, the vertical direction) determined by the position determination unit 62 based on the detection result by the position information acquisition device 14 or the gyro sensor 44 or the like. Based on the change, the posture (direction and angle) of the three-dimensional virtual image 80 displayed on the video display device 30 is changed.

前記切開線表示部58は、前記3次元模型16において前記指示部が指し示す模型上位置の推移に応じた切開線82を、前記映像表示装置30に表示される前記3次元仮想画像80に合成表示させる。例えば、図3に示す態様において、前記指示部としての施術者の指先70が破線で示す位置から実線で示す位置まで推移した(3次元模型16の表面をなぞった)場合、その軌跡は前記3次元模型16上に太い破線で示すものとなる。この場合、図3に示すように、前記軌跡に対応する切開線82を生成して前記3次元仮想画像80に合成表示させる。この場合、当該切開線82が位置に関連する関連情報に該当する。或いは、前記3次元仮想画像80を、前記切開線82に対応する面で切断した、前記臓器の断面(切開面)を示す仮想断層画像を生成し、前記映像表示装置30に表示させるものであってもよい。   The incision line display unit 58 synthesizes and displays the incision line 82 corresponding to the transition of the position on the model indicated by the instruction unit in the three-dimensional model 16 on the three-dimensional virtual image 80 displayed on the video display device 30. Let For example, in the embodiment shown in FIG. 3, when the practitioner's fingertip 70 serving as the pointing unit changes from the position indicated by the broken line to the position indicated by the solid line (tracing the surface of the three-dimensional model 16), the trajectory is 3 This is indicated by a thick broken line on the dimensional model 16. In this case, as shown in FIG. 3, an incision line 82 corresponding to the trajectory is generated and displayed on the three-dimensional virtual image 80. In this case, the incision line 82 corresponds to related information related to the position. Alternatively, a virtual tomographic image showing a cross section (incision plane) of the organ obtained by cutting the three-dimensional virtual image 80 along a plane corresponding to the incision line 82 is generated and displayed on the video display device 30. May be.

図7は、前記システム10が前記臓器の手術の場で実際に用いられる様子を模式的に示す図である。図7においては、被験者(被験体)90における肝臓90aの手術に係る執刀医92が、前記肝臓90aの3次元画像データに基づいて作成された前記3次元模型16を手に持ち、鉗子の先端部76によりその3次元模型16を指し示す態様を例示している。すなわち、図7に示す態様においては、前記鉗子の先端部76が前記指示部に相当する。前記手術に係る助手94及び看護師96は、前記執刀医92の説明を聞きながら前記映像表示装置30の表示を注視している。前記映像表示装置30には、前記肝臓90aの3次元画像データに基づいて生成された前記3次元仮想画像80及び前記断層画像86が表示されている。   FIG. 7 is a diagram schematically showing how the system 10 is actually used in the field of surgery for the organ. In FIG. 7, a surgeon 92 involved in the operation of the liver 90a in a subject (subject) 90 holds the three-dimensional model 16 created based on the three-dimensional image data of the liver 90a in his hand, and the tip of a forceps A mode in which the three-dimensional model 16 is indicated by the part 76 is illustrated. That is, in the embodiment shown in FIG. 7, the distal end portion 76 of the forceps corresponds to the instruction portion. The assistant 94 and the nurse 96 related to the operation watch the display of the video display device 30 while listening to the explanation of the surgeon 92. The video display device 30 displays the three-dimensional virtual image 80 and the tomographic image 86 generated based on the three-dimensional image data of the liver 90a.

前記指示位置表示部56は、前記3次元模型16において前記指示部が指し示す模型上位置を、前記3次元仮想画像80に反映させる。例えば、図4に示す態様においては、前記指示部としてのポインタの先端部72が指し示す模型上位置に対応する、前記3次元仮想画像80における位置を表す目印84を、その3次元仮想画像80の前面側に合成表示させている。図7に示す態様においては、前記指示部としての鉗子の先端部76が指し示す模型上位置に対応する、前記3次元仮想画像80における位置を表す目印84を、その3次元仮想画像80の前面側に合成表示させている。この場合、当該目印84が位置に関連する関連情報に該当する。図4及び図7においては、前記目印84を星印で示している。前記指示位置表示部56は、前記位置判定部62により判定される前記模型上位置の変化に基づいて、前記3次元仮想画像80に対する前記目印84の相対位置を変更する。   The indicated position display unit 56 reflects the position on the model indicated by the indicating unit in the three-dimensional model 16 in the three-dimensional virtual image 80. For example, in the aspect shown in FIG. 4, a mark 84 representing the position in the three-dimensional virtual image 80 corresponding to the position on the model indicated by the tip 72 of the pointer as the pointing unit is displayed on the three-dimensional virtual image 80. Composite display on the front side. In the embodiment shown in FIG. 7, the mark 84 representing the position in the three-dimensional virtual image 80 corresponding to the position on the model indicated by the distal end portion 76 of the forceps as the pointing portion is provided on the front side of the three-dimensional virtual image 80. Is displayed as a composite. In this case, the mark 84 corresponds to related information related to the position. 4 and 7, the mark 84 is indicated by an asterisk. The indicated position display unit 56 changes the relative position of the mark 84 with respect to the three-dimensional virtual image 80 based on the change in the position on the model determined by the position determination unit 62.

前記断層画像表示部54は、前記3次元模型16において前記指示部が指し示す模型上位置を含む断面に相当する断層画像86を表示させる。すなわち、前記臓器の3次元画像データに基づいて表示可能な断層画像86のうち、前記模型上位置を含む断面に相当する断層画像86を選択して表示させる。前記指示位置表示部56は、前記3次元模型16において前記指示部が指し示す模型上位置を、前記断層画像86に反映させる。例えば、図7に示す態様においては、前記指示部としての鉗子の先端部76が指し示す模型上位置に対応する、前記断層画像86における位置を表す目印88を、その断層画像86の前面側に合成表示させている。図7においては、前記目印88を星印で示している。前記指示位置表示部56は、前記位置判定部62により判定される前記模型上位置の変化に基づいて、前記断層画像86に対する前記目印88の相対位置を変更する。   The tomographic image display unit 54 displays a tomographic image 86 corresponding to a cross section including a position on the model indicated by the instruction unit in the three-dimensional model 16. That is, the tomographic image 86 corresponding to the cross section including the position on the model is selected and displayed from the tomographic images 86 that can be displayed based on the three-dimensional image data of the organ. The indicated position display unit 56 reflects the position on the model indicated by the indicating unit in the three-dimensional model 16 in the tomographic image 86. For example, in the embodiment shown in FIG. 7, a mark 88 representing the position in the tomographic image 86 corresponding to the position on the model indicated by the distal end portion 76 of the forceps as the indicating unit is synthesized on the front side of the tomographic image 86. It is displayed. In FIG. 7, the mark 88 is indicated by an asterisk. The indicated position display unit 56 changes the relative position of the mark 88 with respect to the tomographic image 86 based on the change in the position on the model determined by the position determination unit 62.

図9は、前記画像表示部50により前記映像表示装置30に表示される前記3次元仮想画像80及び前記断層画像86の具体例を示す図である。図9に示す例では、対象となる臓器の病変部位(腫瘍等)を、前記3次元仮想画像80においては部位80bで、前記断層画像86においては部位86bで、それぞれ示している。前記3次元模型16において前記指示部が指し示す模型上位置の推移に応じた切開線82が、前記3次元仮想画像80の前面側に合成表示されている。更に、前記指示部を示すポインタ画像98が前記3次元仮想画像80の前面側に合成表示されている。前記3次元模型16において前記指示部が指し示す模型上位置の推移に応じて、前記ポインタ画像98の前記3次元仮想画像80に対する位置が変化させられる。前記3次元模型16において前記指示部が指し示す模型上位置を表すx座標線100x及びy座標線100yが、前記断層画像86の前面側に合成表示されている。前記x座標線100x及びy座標線100yは、前記断層画像86に対応する平面内における、前記模型上位置のx座標及びy座標にそれぞれ対応し、その交点が前記模型上位置に相当する。更に、図9に示す例では、前記断層画像86に対応する平面内における、前記模型上位置のxy座標(x1,y1)を示すテキスト102が、前記断層画像86の前面側に合成表示されている。   FIG. 9 is a diagram illustrating a specific example of the three-dimensional virtual image 80 and the tomographic image 86 displayed on the video display device 30 by the image display unit 50. In the example shown in FIG. 9, a lesion site (tumor or the like) of the target organ is indicated by a site 80 b in the three-dimensional virtual image 80 and a site 86 b in the tomographic image 86. An incision line 82 corresponding to the transition of the position on the model indicated by the instruction unit in the three-dimensional model 16 is synthesized and displayed on the front side of the three-dimensional virtual image 80. Further, a pointer image 98 indicating the instruction unit is displayed in a composite manner on the front side of the three-dimensional virtual image 80. In the three-dimensional model 16, the position of the pointer image 98 with respect to the three-dimensional virtual image 80 is changed according to the transition of the position on the model indicated by the instruction unit. In the three-dimensional model 16, an x coordinate line 100 x and a y coordinate line 100 y representing the position on the model pointed to by the instruction unit are combined and displayed on the front side of the tomographic image 86. The x-coordinate line 100x and the y-coordinate line 100y correspond to the x-coordinate and y-coordinate of the position on the model, respectively, in the plane corresponding to the tomographic image 86, and the intersections correspond to the position on the model. Further, in the example shown in FIG. 9, the text 102 indicating the xy coordinates (x1, y1) of the position on the model in the plane corresponding to the tomographic image 86 is synthesized and displayed on the front side of the tomographic image 86. Yes.

以上に説明したように、本実施例のシステム10は、前記3次元模型16を入力インターフェイスとして用い、前記映像表示装置30に表示される前記3次元仮想画像80及び前記断層画像86等とのインタラクションを可能とする。前記3次元模型16と、前記3次元仮想画像80及び前記断層画像86とは、共通の3次元画像データに基づいて、その3次元画像データをそれぞれ異なる態様で具現化した臓器モデルである。すなわち、前記3次元模型16は、前記3次元画像データを触覚的に確認可能に具現化した、前記臓器と同じ形状(実体)を有する現実化臓器モデルである。前記3次元仮想画像80及び前記断層画像86は、前記3次元画像データを視覚的に確認可能に具現化した、前記臓器と同じ形状情報及び詳細な構造情報を有する仮想化臓器モデルである。現実化臓器モデルとしての前記3次元模型16を用いての操作に、仮想化臓器モデルとしての前記3次元仮想画像80及び前記断層画像86等の表示を同期させることで、実空間上における前記臓器の形状を触覚にて確認しつつ、その臓器における各部の距離や仮想的な断面等を仮想空間上において視認できる。すなわち、現実化臓器モデル及び仮想化臓器モデルそれぞれの長所を両立させることができる。同時に、現実化臓器モデルとしての前記3次元模型16そのものを操作(入力)デバイスとして活用することで、直感的な操作により適切な手術支援を実現するナビゲーションシステムを構築できる。   As described above, the system 10 of the present embodiment uses the three-dimensional model 16 as an input interface, and interacts with the three-dimensional virtual image 80 and the tomographic image 86 displayed on the video display device 30. Is possible. The three-dimensional model 16, the three-dimensional virtual image 80, and the tomographic image 86 are organ models in which the three-dimensional image data is embodied in different modes based on common three-dimensional image data. In other words, the three-dimensional model 16 is a realistic organ model having the same shape (substance) as the organ, which is embodied so that the three-dimensional image data can be tactilely confirmed. The three-dimensional virtual image 80 and the tomographic image 86 are virtual organ models having the same shape information and detailed structure information as the organ, which are embodied so that the three-dimensional image data can be visually confirmed. By synchronizing the display of the three-dimensional virtual image 80 and the tomographic image 86 as virtualized organ models with the operation using the three-dimensional model 16 as a realistic organ model, the organs in real space are synchronized. While confirming the shape of the object by touch, the distance of each part in the organ, the virtual cross section, and the like can be visually recognized in the virtual space. That is, the advantages of the realized organ model and the virtual organ model can be achieved. At the same time, by utilizing the 3D model 16 itself as an actualized organ model as an operation (input) device, it is possible to construct a navigation system that realizes appropriate surgical support by intuitive operation.

図8は、前記コンピュータ12のCPU20による本実施例の観察支援制御の一例の要部を説明するフローチャートであり、繰り返し実行されるものである。   FIG. 8 is a flowchart for explaining a main part of an example of the observation support control of the present embodiment by the CPU 20 of the computer 12, which is repeatedly executed.

先ず、ステップ(以下、ステップを省略する)S1において、前記画像データベース68から観察対象となる臓器の3次元画像データが読み出される。次に、S2において、S1にて読み出された3次元画像データに基づいて、前記臓器の3次元仮想画像80及び断層画像86が生成され、前記映像表示装置30に表示される。次に、S3において、前記3次元模型16及び前記指示部の位置及び方向を示す情報が前記位置情報取得装置14により取得され、前記3次元模型16において前記指示部が指し示す模型上位置が判定される。次に、S4において、S3にて判定された模型上位置を、S2にて表示された前記臓器の3次元仮想画像80及び断層画像86における位置に対応付ける対応付け処理すなわち座標系レジストレーションが行われる。   First, in step (hereinafter, step is omitted) S1, three-dimensional image data of an organ to be observed is read from the image database 68. Next, in S <b> 2, a three-dimensional virtual image 80 and a tomographic image 86 of the organ are generated based on the three-dimensional image data read in S <b> 1 and displayed on the video display device 30. Next, in S3, information indicating the positions and directions of the three-dimensional model 16 and the instruction unit is acquired by the position information acquisition device 14, and the position on the model indicated by the instruction unit in the three-dimensional model 16 is determined. The Next, in S4, an associating process that associates the position on the model determined in S3 with the position of the organ displayed in S2 in the three-dimensional virtual image 80 and the tomographic image 86, that is, coordinate system registration is performed. .

次に、S5において、前記3次元模型16が動かされたか否かが判断される。具体的には、既定の方向を基準とする前記3次元模型16の姿勢が変更されたか否かが判断される。このS5の判断が否定される場合には、S10以下の処理が実行されるが、S5の判断が肯定される場合には、S6において、前記位置情報取得装置14により取得される前記3次元模型16の姿勢情報に基づいて、前記既定の方向を基準とする前記3次元模型16の変位が算出される。次に、S7において、S6にて算出された変位に基づいて、前記3次元仮想画像80が回転させられる。次に、S8において、S7の回転結果に基づいて3Dレンダリングが行われる。すなわち、S7の回転の結果としての前記3次元仮想画像80(S6にて算出された変位に基づいて回転させられた姿勢に相当する3次元仮想画像80)が生成される。次に、S9において、S8にて生成された前記3次元仮想画像80が前記映像表示装置30に表示された後、それをもって本ルーチンが終了させられる。   Next, in S5, it is determined whether or not the three-dimensional model 16 has been moved. Specifically, it is determined whether or not the posture of the three-dimensional model 16 with respect to a predetermined direction has been changed. If the determination in S5 is negative, the processing from S10 is executed. If the determination in S5 is positive, the three-dimensional model acquired by the position information acquisition device 14 in S6. Based on the 16 posture information, the displacement of the three-dimensional model 16 with respect to the predetermined direction is calculated. Next, in S7, the three-dimensional virtual image 80 is rotated based on the displacement calculated in S6. Next, in S8, 3D rendering is performed based on the rotation result in S7. That is, the three-dimensional virtual image 80 (the three-dimensional virtual image 80 corresponding to the posture rotated based on the displacement calculated in S6) as a result of the rotation in S7 is generated. Next, in S9, after the three-dimensional virtual image 80 generated in S8 is displayed on the video display device 30, this routine is terminated.

S10においては、指示位置の入力すなわち前記3次元模型16において前記指示部が指し示す模型上位置の入力が行われたか否かが判断される。このS10の判断が否定される場合には、S14以下の処理が実行されるが、S10の判断が肯定される場合には、S11において、前記入力された模型上位置に対応する距離が、前記臓器の3次元仮想画像80(断層画像86)において算出される。次に、S12において、S11にて算出された距離が、前記映像表示装置30に表示される。次に、S13において、前記入力された模型上位置が、前記映像表示装置30に表示された前記3次元仮想画像80及び前記断層画像86に合成表示された後、それをもって本ルーチンが終了させられる。S14においては、前記3次元模型16において前記指示部が指し示す模型上位置の推移による切開線の入力が行われたか否かが判断される。このS14の判断が否定される場合には、それをもって本ルーチンが終了させられるが、S14の判断が肯定される場合には、S15において、前記模型上位置の推移による切開線に基づく切開シミュレーションが実行される。例えば、前記3次元仮想画像80を、前記切開線に対応する面で切断した、前記臓器の断面(切開面)を示す仮想断層画像が生成される。次に、S16において、前記模型上位置の推移による切開線82が前記3次元仮想画像80に合成されると共に、S15の切開シミュレーションの結果が前記映像表示装置30に表示された後、それをもって本ルーチンが終了させられる。   In S10, it is determined whether or not the input of the indicated position, that is, the input of the position on the model indicated by the indicating unit in the three-dimensional model 16 is performed. If the determination in S10 is negative, the processing of S14 and subsequent steps is executed. If the determination in S10 is positive, in S11, the distance corresponding to the input position on the model is It is calculated in the three-dimensional virtual image 80 (tomographic image 86) of the organ. Next, in S12, the distance calculated in S11 is displayed on the video display device 30. Next, in S13, the inputted position on the model is combined and displayed on the three-dimensional virtual image 80 and the tomographic image 86 displayed on the video display device 30, and then this routine is terminated. . In S <b> 14, it is determined whether or not an incision line has been input by the transition of the position on the model indicated by the instruction unit in the three-dimensional model 16. If the determination in S14 is negative, the routine is terminated accordingly. If the determination in S14 is affirmative, an incision simulation based on the incision line based on the transition of the position on the model is performed in S15. Executed. For example, a virtual tomographic image showing a cross section (incision plane) of the organ, which is obtained by cutting the three-dimensional virtual image 80 along a plane corresponding to the incision line, is generated. Next, in S16, the incision line 82 resulting from the transition of the position on the model is combined with the three-dimensional virtual image 80, and the result of the incision simulation in S15 is displayed on the video display device 30, and then the main line is used. The routine is terminated.

以上の制御において、S2、S8、S9、S12、S13、S16が前記画像表示部50の動作に、S2、S7〜S9が前記3次元仮想画像表示部52の動作に、S2が前記断層画像表示部54の動作に、S13が前記指示位置表示部56の動作に、S15及びS16が前記切開線表示部58の動作に、S12が前記距離表示部60の動作に、S3及びS6が前記位置判定部62の動作に、S4が前記対応付制御部64の動作に、S11が前記距離算出部66の動作に、それぞれ対応する。   In the above control, S2, S8, S9, S12, S13, and S16 are the operations of the image display unit 50, S2, S7 to S9 are the operations of the three-dimensional virtual image display unit 52, and S2 is the tomographic image display. S13 is the operation of the indicated position display unit 56, S15 and S16 are the operation of the incision line display unit 58, S12 is the operation of the distance display unit 60, and S3 and S6 are the position determination. S4 corresponds to the operation of the unit 62, S4 corresponds to the operation of the association control unit 64, and S11 corresponds to the operation of the distance calculation unit 66.

本実施例によれば、予め得られた臓器の3次元画像データに基づいて、3次元造型装置により作成された前記臓器の3次元模型16と、前記3次元模型16において、施術者の指先70、ポインタの先端部72、鉗子の先端部76等の指示部が指し示す模型上位置を判定する位置判定部62(S3及びS6)と、前記臓器の3次元画像データに基づいて、前記臓器の画像を生成して表示させる画像表示部50(S2、S8、S9、S12、S13、S16)と、前記模型上位置を、前記画像表示部50により表示される前記臓器の画像における位置又は当該位置に関連する関連情報に対応付ける対応付制御部64(S4)とを、備えたものであることから、前記臓器の3次元模型16を入力インターフェイスとして用いて、前記指示部が前記臓器の3次元模型16を指し示す操作を、前記画像表示部50により表示される前記臓器の画像に反映させることができる。すなわち、直感的な操作による実用性の高い観察支援を実現するシステム10を提供することができる。   According to the present embodiment, based on the three-dimensional image data of the organ obtained in advance, the three-dimensional model 16 of the organ created by the three-dimensional molding apparatus and the fingertip 70 of the operator in the three-dimensional model 16 Based on the position determination unit 62 (S3 and S6) for determining the position on the model indicated by the pointing unit such as the distal end portion 72 of the pointer and the distal end portion 76 of the forceps, and the three-dimensional image data of the organ, the image of the organ The image display unit 50 (S2, S8, S9, S12, S13, S16) for generating and displaying the image and the position on the model at the position or the position in the organ image displayed by the image display unit 50 Since the correspondence control unit 64 (S4) that associates with related information is provided, the instruction unit uses the three-dimensional model 16 of the organ as an input interface. An operation of pointing to 3D model 16 of the vessel, can be reflected in the image of the organ to be displayed by the image display unit 50. That is, it is possible to provide the system 10 that realizes highly practical observation support through intuitive operation.

前記模型上位置に対応する距離を、前記臓器の画像において算出する距離算出部66(S11)を備えたものであるため、前記臓器の3次元模型16を入力インターフェイスとして用いて、前記指示部の操作に対応した距離を簡便に算出できる。   Since the distance calculation unit 66 (S11) for calculating the distance corresponding to the position on the model in the image of the organ is provided, the three-dimensional model 16 of the organ is used as an input interface, and the indication unit The distance corresponding to the operation can be calculated easily.

前記画像表示部50は、前記臓器の3次元画像データに基づいて、前記臓器の3次元仮想画像80を生成して表示させるものであり、前記模型上位置の推移に応じた切開線82を、前記臓器の3次元仮想画像80に合成表示させるものであるため、前記臓器の3次元模型16を入力インターフェイスとして用いて、前記臓器の3次元仮想画像80上に、前記指示部の操作に応じた切開線82を簡便に合成表示できる。   The image display unit 50 generates and displays a three-dimensional virtual image 80 of the organ based on the three-dimensional image data of the organ, and an incision line 82 corresponding to the transition of the position on the model is displayed. Since the three-dimensional virtual image 80 of the organ is compositely displayed, the three-dimensional model 16 of the organ is used as an input interface, and the three-dimensional virtual image 80 of the organ is operated according to the operation of the instruction unit. The incision line 82 can be synthesized and displayed easily.

前記画像表示部50は、前記臓器の3次元画像データに基づいて、前記臓器の3次元仮想画像80を生成して表示させるものであり、前記模型上位置を、前記臓器の3次元仮想画像80に合成表示させるものであるため、前記臓器の3次元模型16を入力インターフェイスとして用いて、前記臓器の3次元仮想画像80上に、前記指示部が指し示す位置を簡便に合成表示できる。   The image display unit 50 generates and displays a three-dimensional virtual image 80 of the organ based on the three-dimensional image data of the organ, and displays the position on the model as a three-dimensional virtual image 80 of the organ. Since the organ 3D model 16 is used as an input interface, the position indicated by the pointing unit can be simply synthesized and displayed on the 3D virtual image 80 of the organ.

前記画像表示部50は、前記臓器の3次元画像データに基づいて、前記臓器の断層画像86を生成して表示させるものであり、前記模型上位置を、前記臓器の断層画像86に合成表示させるものであるため、前記臓器の3次元模型16を入力インターフェイスとして用いて、前記臓器の断層画像86上に、前記指示部が指し示す位置を簡便に合成表示できる。   The image display unit 50 generates and displays a tomographic image 86 of the organ based on the three-dimensional image data of the organ, and displays the model position on the tomographic image 86 of the organ. Therefore, the position pointed to by the pointing unit can be easily synthesized and displayed on the tomographic image 86 of the organ using the three-dimensional model 16 of the organ as an input interface.

既定の方向を基準とする前記臓器の3次元模型16の姿勢を検出する姿勢センサとしてのジャイロセンサ44等を備え、前記画像表示部50は、前記臓器の3次元画像データに基づいて、前記臓器の3次元仮想画像80を生成して表示させるものであり、前記姿勢センサによる検出結果に基づいて、前記臓器の3次元仮想画像80の姿勢を変更するものであるため、前記臓器の3次元模型16を入力インターフェイスとして用いて、前記臓器の3次元仮想画像80の姿勢が、前記臓器の3次元模型16の姿勢に追従する表示制御を実現できる。   A gyro sensor 44 as a posture sensor for detecting the posture of the three-dimensional model 16 of the organ with a predetermined direction as a reference, and the image display unit 50 based on the three-dimensional image data of the organ The three-dimensional virtual image 80 is generated and displayed, and the posture of the three-dimensional virtual image 80 of the organ is changed based on the detection result by the posture sensor. 16 as an input interface, it is possible to realize display control in which the posture of the three-dimensional virtual image 80 of the organ follows the posture of the three-dimensional model 16 of the organ.

滅菌済みの袋部材74を備え、前記臓器の3次元模型16及び前記姿勢センサは、前記袋部材74に封入されたものであるため、手術中においても、前記臓器の3次元模型16を入力インターフェイスとして用いることができる。   Since the sterilized bag member 74 is provided and the three-dimensional model 16 of the organ and the posture sensor are sealed in the bag member 74, the three-dimensional model 16 of the organ is input to the interface even during the operation. Can be used as

前記臓器の3次元模型16に取り付けられた複数のマーカと、前記指示部に取り付けられたマーカと、前記マーカの位置を検出するマーカ検出装置とを、備え、前記位置判定部62は、前記マーカ検出装置による検出結果に基づいて、前記模型上位置を判定するものであるため、実用的な態様で、前記臓器の3次元模型16において前記指示部が指し示す位置を判定できる。   A plurality of markers attached to the three-dimensional model 16 of the organ; a marker attached to the pointing unit; and a marker detection device that detects a position of the marker; and the position determination unit 62 includes the marker Since the position on the model is determined based on the detection result by the detection device, the position indicated by the instruction unit in the three-dimensional model 16 of the organ can be determined in a practical manner.

前記マーカ検出装置は、前記マーカを磁気的に検出する磁気式位置センサ40、42であるため、実用的な態様で、前記臓器の3次元模型16において前記指示部が指し示す位置を判定できる。   Since the marker detection devices are magnetic position sensors 40 and 42 that magnetically detect the marker, the position indicated by the pointing unit in the three-dimensional model 16 of the organ can be determined in a practical manner.

前記マーカは、光学式マーカであり、前記マーカ検出装置は、前記マーカを光学的に検出する装置であるため、実用的な態様で、前記臓器の3次元模型16において前記指示部が指し示す位置を判定できる。   Since the marker is an optical marker, and the marker detection device is a device that optically detects the marker, the position indicated by the indication unit in the three-dimensional model 16 of the organ is practically used. Can be judged.

前記マーカは、2次元コード34、36であり、前記マーカ検出装置は、前記撮像装置38及び2次元コードリーダとしての位置情報取得装置14であるため、実用的な態様で、前記臓器の3次元模型16において前記指示部が指し示す位置を判定できる。   The marker is a two-dimensional code 34, 36, and the marker detection device is the imaging device 38 and the position information acquisition device 14 as a two-dimensional code reader. The position pointed to by the instruction unit in the model 16 can be determined.

前記システム10に用いられる臓器の3次元模型16であって、前記対応付制御部64による対応付けの基準となる単数又は複数の基準位置が予め定められ、各基準位置に前記マーカが取り付けられたものであるため、実用的な態様で、前記臓器の3次元模型16において前記指示部が指し示す模型上位置を、前記画像表示部50により表示される前記臓器の画像における位置に対応付けることができる。   In the three-dimensional model 16 of the organ used in the system 10, one or a plurality of reference positions serving as a reference for association by the association control unit 64 are determined in advance, and the marker is attached to each reference position Therefore, in a practical aspect, the position on the model indicated by the pointing unit in the three-dimensional model 16 of the organ can be associated with the position in the image of the organ displayed by the image display unit 50.

以上、本発明の好適な実施例を図面に基づいて詳細に説明したが、本発明はこれらの実施例に限定されるものではなく、その趣旨を逸脱しない範囲内において種々の変更が加えられて実施されるものである。例えば、位置に関連する関連情報は、前記実施例における関連情報に限定されるものではなく、前記以外の種々の関連情報を様々な態様で表示させることができる。   The preferred embodiments of the present invention have been described in detail with reference to the drawings. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention. To be implemented. For example, the related information related to the position is not limited to the related information in the embodiment, and various related information other than the above can be displayed in various modes.

10:医用観察支援システム、14:位置情報取得装置(マーカ検出装置)、16:3次元模型、34、36:2次元コード(マーカ)、38:撮像装置、40、42:磁気式位置センサ(マーカ)、44:ジャイロセンサ(姿勢センサ)、50:画像表示部、62:位置判定部、64:対応付制御部、66:距離算出部、70:施術者の指先(指示部)、72:ポインタの先端部(指示部)、74:袋部材、76:鉗子の先端部(指示部)、80:3次元仮想画像、82:切開線、86:断層画像、90:被験者(被験体)、90a:肝臓(臓器)   10: medical observation support system, 14: position information acquisition device (marker detection device), 16: three-dimensional model, 34, 36: two-dimensional code (marker), 38: imaging device, 40, 42: magnetic position sensor ( Marker), 44: Gyro sensor (posture sensor), 50: Image display unit, 62: Position determination unit, 64: Control unit with correspondence, 66: Distance calculation unit, 70: Fingertip (instruction unit) of practitioner, 72: Pointer of pointer (instruction part), 74: bag member, 76: tip of forceps (instruction part), 80: three-dimensional virtual image, 82: incision line, 86: tomographic image, 90: subject (subject), 90a: Liver (organ)

Claims (12)

被検体における臓器の観察を支援する医用観察支援システムであって、
予め得られた前記臓器の3次元画像データに基づいて、3次元造型装置により作成された前記臓器の3次元模型と、
前記臓器の3次元模型において、既定の指示部が指し示す模型上位置を判定する位置判定部と、
前記臓器の3次元画像データに基づいて、前記臓器の画像を生成して表示させる表示部と、
前記模型上位置を、前記表示部により表示される前記臓器の画像における位置又は当該位置に関連する関連情報に対応付ける対応付制御部と
を、備えたことを特徴とする医用観察支援システム。
A medical observation support system for supporting observation of an organ in a subject,
A three-dimensional model of the organ created by a three-dimensional molding apparatus based on the three-dimensional image data of the organ obtained in advance;
In the three-dimensional model of the organ, a position determination unit that determines a position on the model indicated by a predetermined instruction unit;
A display unit configured to generate and display an image of the organ based on the three-dimensional image data of the organ;
A medical observation support system comprising: an association control unit that associates the position on the model with a position in the image of the organ displayed by the display unit or related information related to the position.
前記模型上位置に対応する距離を、前記臓器の画像において算出する距離算出部を備えた
請求項1に記載の医用観察支援システム。
The medical observation support system according to claim 1, further comprising a distance calculation unit that calculates a distance corresponding to the position on the model in the image of the organ.
前記表示部は、
前記臓器の3次元画像データに基づいて、前記臓器の3次元仮想画像を生成して表示させるものであり、
前記模型上位置の推移に応じた切開線を、前記臓器の3次元仮想画像に合成表示させるものである
請求項1又は2に記載の医用観察支援システム。
The display unit
Generating and displaying a three-dimensional virtual image of the organ based on the three-dimensional image data of the organ;
The medical observation support system according to claim 1, wherein an incision line corresponding to the transition of the position on the model is displayed in a synthesized manner on a three-dimensional virtual image of the organ.
前記表示部は、
前記臓器の3次元画像データに基づいて、前記臓器の3次元仮想画像を生成して表示させるものであり、
前記模型上位置を、前記臓器の3次元仮想画像に合成表示させるものである
請求項1から3の何れか1項に記載の医用観察支援システム。
The display unit
Generating and displaying a three-dimensional virtual image of the organ based on the three-dimensional image data of the organ;
The medical observation support system according to any one of claims 1 to 3, wherein the position on the model is synthesized and displayed on a three-dimensional virtual image of the organ.
前記表示部は、
前記臓器の3次元画像データに基づいて、前記臓器の断層画像を生成して表示させるものであり、
前記模型上位置を、前記臓器の断層画像に合成表示させるものである
請求項1から4の何れか1項に記載の医用観察支援システム。
The display unit
Generating and displaying a tomographic image of the organ based on the three-dimensional image data of the organ;
The medical observation support system according to any one of claims 1 to 4, wherein the position on the model is combined and displayed on a tomographic image of the organ.
既定の方向を基準とする前記臓器の3次元模型の姿勢を検出する姿勢センサを備え、
前記表示部は、
前記臓器の3次元画像データに基づいて、前記臓器の3次元仮想画像を生成して表示させるものであり、
前記姿勢センサによる検出結果に基づいて、前記臓器の3次元仮想画像の姿勢を変更するものである
請求項1から5の何れか1項に記載の医用観察支援システム。
A posture sensor for detecting the posture of the three-dimensional model of the organ with reference to a predetermined direction;
The display unit
Generating and displaying a three-dimensional virtual image of the organ based on the three-dimensional image data of the organ;
The medical observation support system according to any one of claims 1 to 5, wherein the posture of the three-dimensional virtual image of the organ is changed based on a detection result by the posture sensor.
滅菌済みの袋部材を備え、
前記臓器の3次元模型及び前記姿勢センサは、前記袋部材に封入されたものである
請求項6に記載の医用観察支援システム。
It has a sterilized bag member,
The medical observation support system according to claim 6, wherein the three-dimensional model of the organ and the posture sensor are sealed in the bag member.
前記臓器の3次元模型に取り付けられた複数のマーカと、
前記指示部に取り付けられたマーカと、
前記マーカの位置を検出するマーカ検出装置と
を、備え、
前記位置判定部は、前記マーカ検出装置による検出結果に基づいて、前記模型上位置を判定するものである
請求項1から7の何れか1項に記載の医用観察支援システム。
A plurality of markers attached to the three-dimensional model of the organ;
A marker attached to the indicator;
A marker detection device for detecting the position of the marker,
The medical observation support system according to any one of claims 1 to 7, wherein the position determination unit determines the position on the model based on a detection result by the marker detection device.
前記マーカは、磁気式マーカであり、
前記マーカ検出装置は、前記マーカを磁気的に検出する装置である
請求項8に記載の医用観察支援システム。
The marker is a magnetic marker,
The medical observation support system according to claim 8, wherein the marker detection device is a device that magnetically detects the marker.
前記マーカは、光学式マーカであり、
前記マーカ検出装置は、前記マーカを光学的に検出する装置である
請求項8に記載の医用観察支援システム。
The marker is an optical marker,
The medical observation support system according to claim 8, wherein the marker detection device is a device that optically detects the marker.
前記マーカは、2次元コードであり、
前記マーカ検出装置は、撮像装置及び2次元コードリーダである
請求項8に記載の医用観察支援システム。
The marker is a two-dimensional code;
The medical observation support system according to claim 8, wherein the marker detection device is an imaging device and a two-dimensional code reader.
請求項8から11の何れか1項に記載の医用観察支援システムに用いられる臓器の3次元模型であって、
前記対応付制御部による対応付けの基準となる単数又は複数の基準位置が予め定められ、各基準位置に前記マーカが取り付けられたものであることを特徴とする臓器の3次元模型。
A three-dimensional model of an organ used in the medical observation support system according to any one of claims 8 to 11,
A three-dimensional model of an organ in which one or a plurality of reference positions serving as references for association by the association control unit are determined in advance, and the marker is attached to each reference position.
JP2015047922A 2015-03-11 2015-03-11 Medical observation support system and 3D model of organ Active JP6548110B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015047922A JP6548110B2 (en) 2015-03-11 2015-03-11 Medical observation support system and 3D model of organ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015047922A JP6548110B2 (en) 2015-03-11 2015-03-11 Medical observation support system and 3D model of organ

Publications (2)

Publication Number Publication Date
JP2016168078A true JP2016168078A (en) 2016-09-23
JP6548110B2 JP6548110B2 (en) 2019-07-24

Family

ID=56981585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015047922A Active JP6548110B2 (en) 2015-03-11 2015-03-11 Medical observation support system and 3D model of organ

Country Status (1)

Country Link
JP (1) JP6548110B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020520027A (en) * 2017-05-16 2020-07-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Virtual extension of anatomical model
CN112541941A (en) * 2020-12-07 2021-03-23 明峰医疗系统股份有限公司 Scanning flow decision method and system based on CT locating sheet
US11341664B2 (en) 2018-06-29 2022-05-24 Fujitsu Limited Apparatus and method for visualization

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004530485A (en) * 2001-06-13 2004-10-07 ヴォリューム・インタラクションズ・プライヴェート・リミテッド Guide systems and probes therefor
JP2012148059A (en) * 2010-12-27 2012-08-09 Kochi Univ Of Technology Biological image processing system equipped with tangible device
JP2015506002A (en) * 2011-11-08 2015-02-26 コーニンクレッカ フィリップス エヌ ヴェ Interaction with 3D object datasets

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004530485A (en) * 2001-06-13 2004-10-07 ヴォリューム・インタラクションズ・プライヴェート・リミテッド Guide systems and probes therefor
JP2012148059A (en) * 2010-12-27 2012-08-09 Kochi Univ Of Technology Biological image processing system equipped with tangible device
JP2015506002A (en) * 2011-11-08 2015-02-26 コーニンクレッカ フィリップス エヌ ヴェ Interaction with 3D object datasets

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020520027A (en) * 2017-05-16 2020-07-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Virtual extension of anatomical model
JP7190448B2 (en) 2017-05-16 2022-12-15 コーニンクレッカ フィリップス エヌ ヴェ Virtual extension of anatomical models
US11532130B2 (en) 2017-05-16 2022-12-20 Koninklijke Philips N.V. Virtual augmentation of anatomical models
US11341664B2 (en) 2018-06-29 2022-05-24 Fujitsu Limited Apparatus and method for visualization
CN112541941A (en) * 2020-12-07 2021-03-23 明峰医疗系统股份有限公司 Scanning flow decision method and system based on CT locating sheet
CN112541941B (en) * 2020-12-07 2023-12-15 明峰医疗系统股份有限公司 Scanning flow decision method and system based on CT (computed tomography) positioning sheet

Also Published As

Publication number Publication date
JP6548110B2 (en) 2019-07-24

Similar Documents

Publication Publication Date Title
US11481987B2 (en) Augmenting real-time views of a patient with three-dimensional data
US11989338B2 (en) Using optical codes with augmented reality displays
KR102562252B1 (en) How to align the patient&#39;s image data with the patient&#39;s actual field of view using an optical cord attached to the patient
CN109998678A (en) Augmented reality assisting navigation is used during medicine regulation
US12016633B2 (en) Alignment of medical images in augmented reality displays
JP6548110B2 (en) Medical observation support system and 3D model of organ
CN115105204A (en) Laparoscope augmented reality fusion display method
US11869216B2 (en) Registration of an anatomical body part by detecting a finger pose
US12033741B2 (en) Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient
US20230237711A1 (en) Augmenting a medical image with an intelligent ruler
De Paolis Advanced navigation and augmented visualization in minimally invasive surgery
CN113648073A (en) Adjustment of augmented reality and/or virtual reality

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190614

R150 Certificate of patent or registration of utility model

Ref document number: 6548110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250