JP2008264520A - Apparatus, method, and program for displaying surgery support information - Google Patents

Apparatus, method, and program for displaying surgery support information Download PDF

Info

Publication number
JP2008264520A
JP2008264520A JP2008074003A JP2008074003A JP2008264520A JP 2008264520 A JP2008264520 A JP 2008264520A JP 2008074003 A JP2008074003 A JP 2008074003A JP 2008074003 A JP2008074003 A JP 2008074003A JP 2008264520 A JP2008264520 A JP 2008264520A
Authority
JP
Japan
Prior art keywords
patient
endoscope
information
coordinate axis
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008074003A
Other languages
Japanese (ja)
Other versions
JP5283157B2 (en
Inventor
Baigalmaa Tsagaan
バイガルマ ツァガーン
Seiji Yamamoto
清二 山本
Susumu Terakawa
進 寺川
Masanori Takaya
昌紀 高矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Hamamatsu University School of Medicine NUC
Original Assignee
Shizuoka University NUC
Hamamatsu University School of Medicine NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC, Hamamatsu University School of Medicine NUC filed Critical Shizuoka University NUC
Priority to JP2008074003A priority Critical patent/JP5283157B2/en
Publication of JP2008264520A publication Critical patent/JP2008264520A/en
Application granted granted Critical
Publication of JP5283157B2 publication Critical patent/JP5283157B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Endoscopes (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To accurately indicate that a part imaged by an endoscope corresponds to which part of a patient without using a new special endoscope. <P>SOLUTION: An apparatus 1 for displaying surgery support information includes: the endoscope 11; marker balls 12 positioned and fixed to the endoscope 11; a CT device 30 for acquiring information which indicates the shape of the patient 60; an imaging device 20 for imaging the surface of the patient 60 and the marker balls 12; a surface shape calculating part 43 for calculating information, which indicates the shape of the surface of the patient 60, from an image; a coordinate axis coincidence part 44 for matching the shape of the surface of the patient by the CT device 30 with the shape of the surface of the patient calculated based on the image; an endoscope optical axis calculating part 45 for calculating the coordinates of the marker balls 12, based on the image, and calculating a half line which indicates the imaging directional optical axis of the endoscope 11; an intersection point calculating part 46 for calculating intersection points between the half line and a surface constituting the inner part of the patient 60; and an output part 47 for superimposing the information which indicates shape of the patient 60 onto information which indicates the intersections, and outputting them. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、内視鏡により撮像された画像に関する情報を術者等に提供する手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラムに関する。   The present invention relates to a surgery support information display apparatus, a surgery support information display method, and a surgery support information display program that provide information about an image captured by an endoscope to an operator or the like.

従来から、内視鏡等の手術器具が患者の体内に挿入されたときに、当該手術器具の先端の正確な位置を術前に撮影されたCT(Computed Tomography)やMRI(Magnetic Resonance Imaging)による画像上に表示し、術者を支援する手術ナビゲーション(手術支援情報表示)が行われている。しかしながら、これらの方法は何れも手術器具やポインタなど器具の先端の位置を表示するのみで、内視鏡で撮像している部位が、CTやMRIによる術前画像のどの部分に相当するかを表示するものではない。   Conventionally, when a surgical instrument such as an endoscope is inserted into the body of a patient, the exact position of the distal end of the surgical instrument is obtained by CT (Computed Tomography) or MRI (Magnetic Resonance Imaging) taken before surgery. Surgery navigation (surgery support information display) is performed on the image to assist the surgeon. However, each of these methods only displays the position of the distal end of a surgical instrument or pointer, such as a surgical instrument, and which part of the preoperative image by CT or MRI corresponds to the part imaged by the endoscope. It is not a display.

もし、内視鏡で撮像している部位(内視鏡のモニタに表示されている術野)が術前のCT等による画像のどこに相当するのかを確認することができれば、例えば術者は左手に持った内視鏡で操作を加える場所を直視下に確認し、それが術前のCT等による画像のどの部位を観察しているかを認識しながら、右手で自由に任意の手術器具を持ち替えて手術操作を連続して行うことができる。これにより手術器具には特殊なマーカを必要とせず、あらゆる器具を制限無く使用することができる。   If the site being imaged by the endoscope (the surgical field displayed on the endoscope monitor) can be confirmed in the preoperative CT image or the like, for example, the operator can use the left hand. Confirm the place where the operation is to be performed directly with the endoscope held in the hand, and change any surgical instrument freely with the right hand while recognizing which part of the image is observed by CT etc. before surgery Surgical operation can be performed continuously. Thereby, a special marker is not required for the surgical instrument, and any instrument can be used without limitation.

これを解決する技術として、特許文献1において開示されているような、内視鏡で観察している部位を術前画像(CT/MRI)に表示するものがある。
特開2001−204738号公報
As a technique for solving this, there is a technique for displaying a site observed by an endoscope on a preoperative image (CT / MRI) as disclosed in Patent Document 1.
JP 2001-204738 A

しかしながら、特許文献1に記載された方法は、患者の体内に挿入される挿入部の先端から患者体内の術部までの距離を測定する距離測定手段(スポット光照射による三角測量法や超音波センサ等)を有する内視鏡を用いている。従って、この方法は、新たに特殊な内視鏡を必要とするという問題点がある。また、距離測定手段を有することにより、内視鏡の構造が複雑になると、消毒等の日常業務で内視鏡あるいはこれらの付加的な構成要素が損傷するおそれがある。また、内視鏡手術では、吸引管等の手術器具が内視鏡先端と患者体内の術部の間に入ることが多く、この場合には内視鏡の先端から患者体内の術部までの距離を正確に測定することが困難になる。更に、超音波センサを用いる場合は、例えば脳脊髄液や副鼻腔内の浸出液等の中では、超音波の速度が空気中とは異なるため、その速度を正確に知る必要がある。しかしながら、脳脊髄液や浸出液に代表される体液は、個人差が大きい上に腫瘍や炎症等の病状に影響されてその組成が変わるので、超音波の速度を正確に算出することが不可能である。そのため、内視鏡先端から患者体内の術部までの距離の算出が正確にできないという問題点がある。   However, the method described in Patent Document 1 is a distance measuring unit that measures the distance from the distal end of the insertion portion inserted into the patient's body to the surgical site in the patient's body (triangulation method using spot light irradiation or an ultrasonic sensor). Etc.) is used. Therefore, this method has a problem that a new special endoscope is required. In addition, when the structure of the endoscope is complicated by having the distance measuring means, the endoscope or these additional components may be damaged in daily work such as disinfection. In endoscopic surgery, a surgical instrument such as a suction tube often enters between the endoscope tip and the surgical site in the patient. In this case, the surgical instrument from the endoscope to the surgical site in the patient is used. It becomes difficult to measure the distance accurately. Furthermore, when an ultrasonic sensor is used, for example, in the cerebrospinal fluid or the exudate in the sinuses, the speed of the ultrasonic wave is different from that in the air, so it is necessary to know the speed accurately. However, body fluids, such as cerebrospinal fluid and exudate, vary greatly among individuals and are affected by the pathology of tumors, inflammation, etc., and their composition changes. Therefore, it is impossible to accurately calculate the ultrasonic velocity. is there. Therefore, there is a problem that it is impossible to accurately calculate the distance from the distal end of the endoscope to the surgical site in the patient.

本発明は、以上の問題点を解決するためになされたものであり、新たに特殊な内視鏡を用いることなく従来から用いられる内視鏡を用いて、内視鏡で撮像している部分が患者のどの部位に相当するかを正確に表示することができる手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and is a part that is imaged with an endoscope using a conventionally used endoscope without newly using a special endoscope. An object of the present invention is to provide a surgery support information display device, a surgery support information display method, and a surgery support information display program capable of accurately displaying which part of a patient corresponds to a patient.

本発明に係る手術支援情報表示装置は、患者の内部に挿入されて当該内部を撮像する内視鏡と、第1の座標軸上における、内視鏡が挿入される患者の内部を構成する面と当該患者の表面の第1の三次元形状とを示す第1の情報を取得する患者形状取得手段と、患者に内視鏡が差し込まれるときに、患者の表面を撮像する撮像手段と、撮像手段により撮像された患者の表面の画像から、第2の座標軸上における当該患者の表面の第2の三次元形状を示す第2の情報を算出する表面形状算出手段と、患者形状取得手段により取得された第1の情報で示される第1の三次元形状、及び表面形状算出手段により算出された第2の情報で示される第2の三次元形状のうち一方の三次元形状上に複数の基準点を設け、当該複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の三次元形状の限定された範囲から算出し、当該複数の基準点と当該複数の対応点との位置関係に基づいて第1の情報と第2の情報とをマッチングすることで、第1の座標軸と第2の座標軸とを一致させる座標軸一致手段と、撮像手段により撮像された画像から、座標軸一致手段により第1の座標軸に一致された第2の座標軸上における内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出手段と、内視鏡光軸算出手段により算出された内視鏡の撮像方向である光軸を示す半直線と患者形状取得手段により取得された第1の情報に係る患者の内部を構成する面との交点を算出する交点算出手段と、交点算出手段により算出された交点を示す情報を、患者形状取得手段により取得された患者の内部を構成する面を示す情報に重畳して出力する出力手段と、を備えることを特徴とする。   An operation support information display device according to the present invention includes an endoscope that is inserted into a patient and images the interior, and a surface that constitutes the interior of the patient into which the endoscope is inserted on the first coordinate axis. Patient shape acquisition means for acquiring first information indicating the first three-dimensional shape of the patient's surface, imaging means for imaging the patient's surface when an endoscope is inserted into the patient, and imaging means Obtained from the image of the surface of the patient imaged by the step 2 by the surface shape calculating means for calculating the second information indicating the second three-dimensional shape of the surface of the patient on the second coordinate axis, and the patient shape acquiring means. A plurality of reference points on one three-dimensional shape among the first three-dimensional shape indicated by the first information and the second three-dimensional shape indicated by the second information calculated by the surface shape calculating means For each of the plurality of reference points The corresponding point at the shortest distance from the reference point is calculated from the limited range of the other three-dimensional shape, and the first information and the second information are calculated based on the positional relationship between the plurality of reference points and the plurality of corresponding points. By matching the first coordinate axis with the second coordinate axis, and from the image picked up by the image pickup means, the second coordinate line matched with the first coordinate axis by the coordinate axis matching means. Endoscope optical axis calculating means for calculating a half line indicating the optical axis that is the imaging direction of the endoscope on the coordinate axes of the endoscope, and light that is the imaging direction of the endoscope calculated by the endoscope optical axis calculating means Intersection calculation means for calculating the intersection of the half line indicating the axis and the surface constituting the interior of the patient according to the first information acquired by the patient shape acquisition means, and information indicating the intersection calculated by the intersection calculation means Acquired by patient shape acquisition means And output means for superimposed output the information indicating the surface constituting the internal patient, characterized in that it comprises a.

本発明に係る手術支援情報表示装置では、CT等により患者の内部を構成する面と患者の表面の第1の三次元形状とを示す第1の情報が取得される。その一方で、患者に内視鏡が差し込まれるときに、患者の表面が撮像され、その画像から、患者の表面の第2の三次元形状を示す第2の情報が算出される。続いて、第1の三次元形状及び第2の三次元形状のうち一方の三次元形状上に複数の基準点が設けられ、当該複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点が他方の三次元形状上の限定された範囲から算出される。次に、複数の基準点と複数の対応点との位置関係に基づいて、第1の情報と第2の情報とがマッチングされる。そして、このマッチングにより、CT等により取得された第1の情報に係る第1の座標軸と、撮像された画像から算出された第2の情報に係る第2の座標軸とが一致される。   In the surgery support information display device according to the present invention, first information indicating the surface constituting the inside of the patient and the first three-dimensional shape of the surface of the patient is acquired by CT or the like. On the other hand, when the endoscope is inserted into the patient, the surface of the patient is imaged, and second information indicating the second three-dimensional shape of the surface of the patient is calculated from the image. Subsequently, a plurality of reference points are provided on one of the first three-dimensional shape and the second three-dimensional shape, and each of the plurality of reference points is at the shortest distance from the reference point. Corresponding points are calculated from a limited range on the other three-dimensional shape. Next, the first information and the second information are matched based on the positional relationship between the plurality of reference points and the plurality of corresponding points. And by this matching, the 1st coordinate axis concerning the 1st information acquired by CT etc. and the 2nd coordinate axis concerning the 2nd information computed from the picked-up image are in agreement.

なお、第1の情報と第2の情報とをマッチングする際は、第1の三次元形状と第2の三次元形状とが共通の座標軸上に存在することを前提とする。すなわち、最短距離とは、これら二つの三次元形状が共通の座標軸上に存在するとした場合の、基準点と対応点との距離である。また、基準点と対応点との位置関係も、それら二つの三次元形状が共通の座標軸上に存在することを前提に定義される。   Note that when the first information and the second information are matched, it is assumed that the first three-dimensional shape and the second three-dimensional shape exist on a common coordinate axis. That is, the shortest distance is the distance between the reference point and the corresponding point when these two three-dimensional shapes exist on a common coordinate axis. The positional relationship between the reference point and the corresponding point is also defined on the assumption that the two three-dimensional shapes exist on a common coordinate axis.

続いて、撮像された画像から内視鏡の撮像方向である光軸を示す半直線が算出される。この撮像方向である光軸を示す半直線とCT等により取得された第1の情報に係る患者の内部を構成する面との交点が算出される。この交点は、CT等により取得された第1の情報において、内視鏡が撮像を行っている点(中心点)を示すものである。この交点を示す情報がCT等により取得された第1の情報に重畳されて出力される。   Subsequently, a half line indicating the optical axis that is the imaging direction of the endoscope is calculated from the captured image. An intersection point between the half line indicating the optical axis that is the imaging direction and the surface constituting the inside of the patient related to the first information acquired by CT or the like is calculated. This intersection point indicates the point (center point) at which the endoscope is imaging in the first information acquired by CT or the like. Information indicating the intersection is superimposed on the first information acquired by CT or the like and output.

即ち、上記のように、本発明に係る手術支援情報表示装置では、CT等による患者の内部を構成する面及び患者の表面の第1の三次元形状を示す第1の情報と、外部から患者を撮像した画像とのみを用いて、内視鏡で撮像している部分が、患者のどの部位に相当するかを表示することができる。従って、本発明に係る手術支援情報表示装置によれば、新たに特殊な内視鏡を用いることなく、上記の表示を行うことができる。また、本発明に係る手術支援情報表示装置によれば、上記の表示において、患者の体内の脳脊髄液等のような液体の影響を受けることが無いので、正確に上記の表示を行うことができる。   That is, as described above, in the operation support information display device according to the present invention, the first information indicating the first three-dimensional shape of the surface constituting the patient and the surface of the patient by CT or the like, and the patient from the outside It is possible to display which part of the patient corresponds to the part imaged by the endoscope using only the image obtained by imaging. Therefore, according to the surgery support information display apparatus according to the present invention, the above-described display can be performed without newly using a special endoscope. Further, according to the surgery support information display device according to the present invention, since the display is not affected by a liquid such as cerebrospinal fluid in the body of the patient, the display can be performed accurately. it can.

また、本発明に係る手術支援情報表示装置では、第1の三次元形状上の基準点に対応する、第2の三次元形状上の対応点を算出する際に、当該算出の範囲が限定される。そのため、対応点をより早く算出ができ、その結果、第1の座標軸と第2の座標軸とをより短時間に一致させることが可能になる。   In addition, in the surgery support information display device according to the present invention, when calculating the corresponding points on the second three-dimensional shape corresponding to the reference points on the first three-dimensional shape, the calculation range is limited. The For this reason, the corresponding points can be calculated earlier, and as a result, the first coordinate axis and the second coordinate axis can be matched in a shorter time.

本発明に係る手術支援情報表示装置は、内視鏡の撮像方向に対して予め定められた相対的な位置関係の位置に固定されて設けられるマーカを更に備え、撮像手段は、患者に内視鏡が差し込まれるときに、患者の表面と共にマーカを撮像し、内視鏡光軸算出手段は、撮像手段により撮像されたマーカの画像から、座標軸一致手段により第1の座標軸に一致された第2の座標軸上における、マーカの三次元座標を算出して、当該マーカと内視鏡の撮像方向との位置関係から内視鏡の撮像方向である光軸を示す半直線を算出する、ことが望ましい。   The surgery support information display device according to the present invention further includes a marker that is fixedly provided at a predetermined relative positional relationship with respect to the imaging direction of the endoscope. When the mirror is inserted, the marker is imaged together with the surface of the patient, and the endoscope optical axis calculation means is configured to match the first coordinate axis by the coordinate axis matching means from the image of the marker imaged by the imaging means. It is desirable to calculate the three-dimensional coordinates of the marker on the coordinate axis of the and calculate a half line indicating the optical axis that is the imaging direction of the endoscope from the positional relationship between the marker and the imaging direction of the endoscope .

この構成によれば、患者に内視鏡が差し込まれるときに、患者の表面及び内視鏡の撮像方向に対して相対的な位置関係に固定されたマーカの座標が撮像される。続いて、撮像された画像から、マーカの三次元座標が算出され、算出されたマーカの画像から内視鏡の撮像方向である光軸を示す半直線が算出される。このようにマーカを用いて内視鏡の撮像方向である光軸を示す半直線を算出することとすれば、正確な半直線がより確実に算出できるので、より確実に正確な上記の表示を行うことができる。   According to this configuration, when the endoscope is inserted into the patient, the coordinates of the marker fixed in a relative positional relationship with respect to the surface of the patient and the imaging direction of the endoscope are imaged. Subsequently, the three-dimensional coordinates of the marker are calculated from the captured image, and a half line indicating the optical axis that is the imaging direction of the endoscope is calculated from the calculated marker image. If the half line indicating the optical axis, which is the imaging direction of the endoscope, is calculated using the marker in this way, an accurate half line can be calculated more reliably. It can be carried out.

また、本発明に係る手術支援情報表示装置は、患者に内視鏡が差し込まれるときに患者の表面の画像が取得されればよいので、構成要素として必ずしも内視鏡を備えている必要はない。即ち、本発明に係る手術支援情報表示装置は、第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面と当該患者の表面の第1の三次元形状とを示す第1の情報を取得する患者形状取得手段と、患者に内視鏡が差し込まれるときに撮像された患者の表面の画像を取得する表面画像取得手段と、表面画像取得手段により取得された患者の表面の画像から、第2の座標軸上における当該患者の表面の第2の三次元形状を示す第2の情報を算出する表面形状算出手段と、患者形状取得手段により取得された第1の情報で示される第1の三次元形状、及び表面形状算出手段により算出された第2の情報で示される第2の三次元形状のうち一方の三次元形状上に複数の基準点を設け、当該複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の三次元形状の限定された範囲から算出し、当該複数の基準点と当該複数の対応点との位置関係に基づいて第1の情報と第2の情報とをマッチングすることで、第1の座標軸と第2の座標軸とを一致させる座標軸一致手段と、表面画像取得手段により取得された画像から、座標軸一致手段により第1の座標軸に一致された第2の座標軸上における内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出手段と、内視鏡光軸算出手段により算出された内視鏡の撮像方向である光軸を示す半直線と患者形状取得手段により取得された第1の情報に係る患者の内部を構成する面との交点を算出する交点算出手段と、交点算出手段により算出された交点を示す情報を、患者形状取得手段により取得された患者の内部を構成する面を示す情報に重畳して出力する出力手段と、を備えることを特徴とする。   In addition, since the operation support information display device according to the present invention only needs to acquire an image of the surface of the patient when the endoscope is inserted into the patient, it is not always necessary to include the endoscope as a component. . That is, the surgery support information display device according to the present invention includes a surface on the first coordinate axis that constitutes the interior of the patient into which the endoscope that is inserted into the patient and images the interior is inserted, and the patient's interior. Patient shape acquisition means for acquiring first information indicating the first three-dimensional shape of the surface, and surface image acquisition means for acquiring an image of the surface of the patient imaged when the endoscope is inserted into the patient; A surface shape calculating means for calculating second information indicating a second three-dimensional shape of the surface of the patient on the second coordinate axis from the image of the surface of the patient acquired by the surface image acquiring means, and a patient shape On one three-dimensional shape of the first three-dimensional shape indicated by the first information acquired by the acquisition means and the second three-dimensional shape indicated by the second information calculated by the surface shape calculation means A plurality of reference points are provided in the For each of the reference points, the corresponding point at the shortest distance from the reference point is calculated from the limited range of the other three-dimensional shape, and based on the positional relationship between the plurality of reference points and the corresponding points. By matching the first information and the second information, the first coordinate axis matching means for matching the first coordinate axis and the second coordinate axis, and the first obtained by the coordinate axis matching means from the image obtained by the surface image obtaining means. Endoscope optical axis calculation means for calculating a half line indicating the optical axis that is the imaging direction of the endoscope on the second coordinate axis that coincides with the coordinate axes of the endoscope, and the endoscope optical axis calculation means An intersection calculation means for calculating an intersection of a half line indicating an optical axis that is an imaging direction of the endoscope and a surface constituting the interior of the patient according to the first information acquired by the patient shape acquisition means; and an intersection calculation means Information indicating the calculated intersection And characterized in that it comprises and output means for outputting the superimposed information of a surface constituting the internal patient acquired by the patient shape acquiring unit.

交点算出手段は、患者の内部を構成する面をポリゴンデータにして、当該ポリゴンデータを構成する各面と内視鏡の撮像方向である光軸を示す半直線との交点を算出することが望ましい。この構成によれば、容易かつ確実に交点を算出することができ、確実に本発明を実施することができる。   It is desirable that the intersection calculation means calculates the intersection between each surface constituting the polygon data and the half line indicating the optical axis that is the imaging direction of the endoscope, by using polygon data as a surface constituting the inside of the patient. . According to this configuration, the intersection can be easily and reliably calculated, and the present invention can be reliably implemented.

出力手段は、内視鏡により撮像された画像に交点に対応する箇所を示す情報を重畳させた画像を併せて出力することが望ましい。この構成によれば、術者等が、内視鏡で撮像された内容と、内視鏡で撮像されている部分が患者のどの部位に相当するかの情報との両方を同時に確認することができるので、より利便性の高い手術支援を行うことができる。   The output means preferably outputs an image obtained by superimposing information indicating a location corresponding to the intersection on the image captured by the endoscope. According to this configuration, the operator or the like can simultaneously confirm both the content captured by the endoscope and the information on which part of the patient the portion captured by the endoscope corresponds to. Therefore, it is possible to provide more convenient surgical support.

座標軸一致手段は、第1の基準点に対応する算出済の対応点の位置と、当該第1の基準点とは異なる第2の基準点の位置とに基づいて、当該算出済の対応点を中心とする範囲を算出し、当該範囲を、第2の基準点から最短距離にある対応点を算出するための限定された範囲とすることが望ましい。この構成によれば、既知の情報(既知の基準点の位置、及び既知の対応点の位置)に基づいて、未知の対応点(第2の基準点から最短距離にある対応点)を算出するための限定された範囲が設定されるので、より早く未知の対応点を算出することができる。   The coordinate axis coincidence means calculates the calculated corresponding point based on the position of the calculated corresponding point corresponding to the first reference point and the position of the second reference point different from the first reference point. It is desirable to calculate a center range and set the range as a limited range for calculating the corresponding point at the shortest distance from the second reference point. According to this configuration, an unknown corresponding point (corresponding point at the shortest distance from the second reference point) is calculated based on known information (the position of the known reference point and the position of the known corresponding point). Therefore, an unknown corresponding point can be calculated more quickly.

限定された範囲は、算出済の対応点を中心とし、第2の基準点の位置と他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、第2の基準点と算出済の対応点との距離とを加算した値を半径とする範囲であることが好ましい。この構成によれば、算出済の対応点の位置と、第2の基準点の位置と他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、第2の基準点と算出済の対応点との距離とに基づいて、未知の対応点を算出するための限定された範囲が設定されるので、より早く未知の対応点を算出することができる。   The limited range is centered on the calculated corresponding point, the distance defined based on the position of the second reference point and the shortest distance field indicating a predetermined neighborhood space of the other three-dimensional shape, and the second Preferably, the radius is a value obtained by adding the distance between the reference point and the calculated corresponding point. According to this configuration, the distance defined based on the position of the calculated corresponding point, the position of the second reference point, and the shortest distance field indicating the predetermined neighborhood space of the other three-dimensional shape, Since the limited range for calculating the unknown corresponding point is set based on the distance between the reference point and the calculated corresponding point, the unknown corresponding point can be calculated earlier.

限定された範囲は、算出済の対応点を中心とし、第1の基準点と算出済の対応点との距離と、第2の基準点の位置と他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、第1の基準点と第2の基準点との距離とを加算した値を半径とする範囲であることが好ましい。この構成によれば、算出済の対応点の位置と、第1の基準点と算出済の対応点との距離と、第2の基準点の位置と他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、第1の基準点と第2の基準点との距離とに基づいて、未知の対応点を算出するための限定された範囲が設定されるので、より早く未知の対応点を算出することができる。   The limited range is centered on the calculated corresponding point, the distance between the first reference point and the calculated corresponding point, the position of the second reference point, and a predetermined neighboring space of the other three-dimensional shape. It is preferable that the radius is a range obtained by adding a distance defined based on the shortest distance field shown and a distance between the first reference point and the second reference point. According to this configuration, the position of the calculated corresponding point, the distance between the first reference point and the calculated corresponding point, the position of the second reference point, and the predetermined neighboring space of the other three-dimensional shape A limited range for calculating an unknown corresponding point is set based on the distance defined based on the shortest distance field shown and the distance between the first reference point and the second reference point. Therefore, an unknown corresponding point can be calculated earlier.

座標軸一致手段は、表面形状算出手段により算出された第2の情報で示される第2の三次元形状上に存在し、且つ患者形状取得手段により取得された第1の情報で示される第1の三次元形状上の基準点から最短距離にある対応点を、当該第2の三次元形状の限定された範囲から算出し、当該基準点と当該対応点との位置関係に基づいて第1の情報を変換することで、当該第1の情報と第2の情報とをマッチングすることが望ましい。この構成によれば、第1の情報のみを変換することでマッチングが行われる。すなわち、第2の情報を処理する必要がない。そのため、より簡易に第1の座標軸と第2の座標軸とを一致させることができる。   The coordinate axis matching means is present on the second three-dimensional shape indicated by the second information calculated by the surface shape calculating means, and the first information indicated by the first information acquired by the patient shape acquiring means. A corresponding point at the shortest distance from a reference point on the three-dimensional shape is calculated from a limited range of the second three-dimensional shape, and the first information is based on the positional relationship between the reference point and the corresponding point. It is desirable to match the first information and the second information by converting. According to this configuration, matching is performed by converting only the first information. That is, there is no need to process the second information. Therefore, the first coordinate axis and the second coordinate axis can be matched more easily.

ところで、本発明は、上記のように手術支援情報表示装置の発明として記述できる他に、以下のように手術支援情報表示方法及び手術支援情報表示プログラムの発明としても記述することができる。これはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。   Incidentally, the present invention can be described as an invention of a surgery support information display apparatus as described above, and can also be described as an invention of a surgery support information display method and a surgery support information display program as follows. This is substantially the same invention only in different categories, and has the same operations and effects.

即ち、本発明に係る手術支援情報表示方法は、第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面と当該患者の表面の第1の三次元形状とを示す第1の情報を取得する患者形状取得ステップと、患者に内視鏡が差し込まれるときに撮像された患者の表面の画像を取得する表面画像取得ステップと、表面画像取得ステップにおいて取得された患者の表面の画像から、第2の座標軸上における当該患者の表面の第2の三次元形状を示す第2の情報を算出する表面形状算出ステップと、患者形状取得ステップにおいて取得された第1の情報で示される第1の三次元形状、及び表面形状算出ステップにおいて算出された第2の情報で示される第2の三次元形状のうち一方の三次元形状上に複数の基準点を設け、当該複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の三次元形状の限定された範囲から算出し、当該複数の基準点と当該複数の対応点との位置関係に基づいて第1の情報と第2の情報とをマッチングすることで、第1の座標軸と第2の座標軸とを一致させる座標軸一致ステップと、表面画像取得ステップにおいて取得された画像から、座標軸一致ステップにおいて第1の座標軸に一致された第2の座標軸上における内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出ステップと、内視鏡光軸算出ステップにおいて算出された内視鏡の撮像方向である光軸を示す半直線と患者形状取得ステップにおいて取得された第1の情報に係る患者の内部を構成する面との交点を算出する交点算出ステップと、交点算出ステップにおいて算出された交点を示す情報を、患者形状取得ステップにおいて取得された患者の内部を構成する面を示す情報に重畳して出力する出力ステップと、を含むことを特徴とする。   That is, the operation support information display method according to the present invention includes a surface on the first coordinate axis that is inserted into a patient and into which an endoscope for imaging the interior is inserted and the patient's interior. A patient shape acquisition step for acquiring first information indicating the first three-dimensional shape of the surface; a surface image acquisition step for acquiring an image of the surface of the patient imaged when the endoscope is inserted into the patient; A surface shape calculation step for calculating second information indicating a second three-dimensional shape of the surface of the patient on the second coordinate axis from the image of the surface of the patient acquired in the surface image acquisition step; and a patient shape On one three-dimensional shape of the first three-dimensional shape indicated by the first information acquired in the acquisition step and the second three-dimensional shape indicated by the second information calculated in the surface shape calculation step A plurality of reference points are provided, and for each of the plurality of reference points, a corresponding point at the shortest distance from the reference point is calculated from a limited range of the other three-dimensional shape, and the plurality of reference points and the plurality of reference points are calculated. It is acquired in the coordinate axis matching step for matching the first coordinate axis and the second coordinate axis by matching the first information and the second information based on the positional relationship with the corresponding point, and the surface image acquisition step. An endoscope optical axis calculation step for calculating a half line indicating an optical axis that is an imaging direction of the endoscope on the second coordinate axis matched with the first coordinate axis in the coordinate axis matching step in the coordinate axis matching step; The intersection point of the half line indicating the optical axis that is the imaging direction of the endoscope calculated in the mirror optical axis calculation step and the surface constituting the interior of the patient related to the first information acquired in the patient shape acquisition step is calculated. An intersection calculating step, and an output step of superimposing and outputting information indicating the intersection calculated in the intersection calculating step on information indicating a surface constituting the inside of the patient acquired in the patient shape acquiring step. It is characterized by.

本発明に係る手術支援情報表示プログラムは、第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面と当該患者の表面の第1の三次元形状とを示す第1の情報を取得する患者形状取得機能と、患者に内視鏡が差し込まれるときに撮像された患者の表面の画像を取得する表面画像取得機能と、表面画像取得機能により取得された患者の表面の画像から、第2の座標軸上における当該患者の表面の第2の三次元形状を示す第2の情報を算出する表面形状算出機能と、患者形状取得機能により取得された第1の情報で示される第1の三次元形状、及び表面形状算出機能により算出された第2の情報で示される第2の三次元形状のうち一方の三次元形状上に複数の基準点を設け、当該複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の三次元形状の限定された範囲から算出し、当該複数の基準点と当該複数の対応点との位置関係に基づいて第1の情報と第2の情報とをマッチングすることで、第1の座標軸と第2の座標軸とを一致させる座標軸一致機能と、表面画像取得機能により取得された画像から、座標軸一致機能により第1の座標軸に一致された第2の座標軸上における内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出機能と、内視鏡光軸算出機能により算出された内視鏡の撮像方向である光軸を示す半直線と患者形状取得機能により取得された第1の情報に係る患者の内部を構成する面との交点を算出する交点算出機能と、交点算出機能により算出された交点を示す情報を、患者形状取得機能により取得された患者の内部を構成する面を示す情報に重畳して出力する出力機能と、をコンピュータに実行させることを特徴とする。   An operation support information display program according to the present invention is provided on a first coordinate axis of a surface constituting an interior of a patient into which an endoscope that is inserted into the patient and images the interior is inserted, and the surface of the patient. A patient shape acquisition function for acquiring first information indicating the first three-dimensional shape, a surface image acquisition function for acquiring an image of the surface of the patient imaged when the endoscope is inserted into the patient, and a surface A surface shape calculation function for calculating second information indicating a second three-dimensional shape of the surface of the patient on the second coordinate axis from the image of the surface of the patient acquired by the image acquisition function; and a patient shape acquisition function A plurality of the first three-dimensional shape indicated by the first information acquired by the first information and the second three-dimensional shape indicated by the second information calculated by the surface shape calculation function on one three-dimensional shape. Multiple reference points For each of the reference points, the corresponding point at the shortest distance from the reference point is calculated from the limited range of the other three-dimensional shape, and based on the positional relationship between the plurality of reference points and the corresponding points. By matching the first information and the second information, the first coordinate axis matching function for matching the first coordinate axis and the second coordinate axis, and the first obtained by the coordinate axis matching function from the image obtained by the surface image obtaining function. An endoscope optical axis calculation function that calculates a half line indicating an optical axis that is an imaging direction of the endoscope on the second coordinate axis that is coincident with the coordinate axis of the endoscope, and an endoscope calculated by the endoscope optical axis calculation function An intersection calculation function for calculating an intersection between a half line indicating an optical axis that is an imaging direction of the endoscope and a surface constituting the interior of the patient related to the first information acquired by the patient shape acquisition function, and an intersection calculation function Information indicating the calculated intersection And characterized in that to execute an output function for superimposed output the information indicating the surface constituting the internal patient acquired by the patient shape acquiring function, to the computer.

本発明では、CT等による患者の内部を構成する面及び患者の表面の三次元形状を示す情報と、外部から患者を撮像した画像とのみを用いて、内視鏡で撮像している部分が、患者のどの部位に相当するかを表示することができる。従って、本発明によれば、新たに特殊な内視鏡を用いることなく、上記の表示を行うことができる。また、本発明によれば、上記の表示において、患者の体内の脳脊髄液等のような液体の影響を受けることが無いので、正確に上記の表示を行うことができる。   In the present invention, a part imaged by an endoscope using only information indicating the three-dimensional shape of the surface of the patient and the surface constituting the inside of the patient by CT and the like, and an image obtained by imaging the patient from the outside is used. It is possible to display which part of the patient corresponds. Therefore, according to the present invention, the above display can be performed without newly using a special endoscope. Further, according to the present invention, since the display is not affected by a liquid such as cerebrospinal fluid in the patient's body, the display can be performed accurately.

以下、図面とともに本発明に係る手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラムの好適な実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明のものと必ずしも一致していない。   Hereinafter, preferred embodiments of a surgery support information display device, a surgery support information display method, and a surgery support information display program according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted. Further, the dimensional ratios in the drawings do not necessarily match those described.

図1は、本発明に係る手術支援情報表示装置1の実施形態を概略的に示す構成図である。手術支援情報表示装置1は、患者60に対する手術の際に、内視鏡により撮像された画像に関する情報を術者等に提供する装置である。本実施形態に係る手術支援情報表示装置1が用いられる手術は、例えば、耳鼻咽頭科における副鼻腔の内視鏡手術等のように、内視鏡による撮像が行われるものを対象とする。   FIG. 1 is a configuration diagram schematically showing an embodiment of a surgery support information display device 1 according to the present invention. The surgery support information display device 1 is a device that provides information about an image captured by an endoscope to an operator or the like during surgery on a patient 60. Surgery in which the surgery support information display device 1 according to the present embodiment is used is intended for an operation in which imaging is performed by an endoscope, such as endoscopic surgery of a sinus in an otolaryngology department.

図1に示すように、手術支援情報表示装置1は、内視鏡11と、標識球12と、撮像装置20と、CT装置30と、PC(Personal Computer)40と、モニタ50とを含んで構成されている。   As shown in FIG. 1, the surgery support information display device 1 includes an endoscope 11, a marker sphere 12, an imaging device 20, a CT device 30, a PC (Personal Computer) 40, and a monitor 50. It is configured.

内視鏡11は、術者により操作され、患者60の内部に挿入されて当該内部を撮像する装置である。内視鏡11は、患者の生体内の挿入できるように細長い形状をしており、その先端部には患者60の内部を撮像するための機構が設けられている。その機構としては、例えば、被撮像部に向くように位置決めして設けられたレンズ及び、レンズの決像位置に設けられたCCDイメージセンサ(Charge Coupled Device Image Sensor)等の撮像素子である。上記の機構の位置決めのされ方によって、内視鏡11の撮像方向Aが決まる。通常は、レンズの光軸方向が、内視鏡11の撮像方向Aとなる。内視鏡11により撮像された画像の情報は、ケーブルにより内視鏡11と接続されたPC40に出力される。なお、上記の内視鏡11としては、特殊な構成を有している必要はなく、従来から用いられている内視鏡を用いることができる。   The endoscope 11 is a device that is operated by an operator and is inserted into a patient 60 to image the inside. The endoscope 11 has an elongated shape so that it can be inserted into a patient's living body, and a mechanism for imaging the inside of the patient 60 is provided at the distal end portion thereof. The mechanism is, for example, an imaging element such as a lens that is positioned so as to face the imaged portion and a CCD image sensor (Charge Coupled Device Image Sensor) that is provided at the determined position of the lens. The imaging direction A of the endoscope 11 is determined depending on how the mechanism is positioned. Usually, the optical axis direction of the lens is the imaging direction A of the endoscope 11. Information on the image captured by the endoscope 11 is output to the PC 40 connected to the endoscope 11 by a cable. The endoscope 11 does not need to have a special configuration, and a conventionally used endoscope can be used.

標識球12は、内視鏡11の撮像方向に対して予め定められた相対的な位置関係の位置に固定されて設けられるマーカである。標識球12は、撮像装置20により撮像されて、撮像された画像から三次元座標を求められる。具体的には、標識球12は、複数内視鏡11に対して棒状の部材13を介して固定される、それぞれ大きさが異なる球状の部材である。大きさが異なることとしているのは、撮像装置20により撮像された画像から、それぞれを区別して検出するためである。   The marker sphere 12 is a marker that is fixedly provided at a predetermined relative positional position with respect to the imaging direction of the endoscope 11. The marker sphere 12 is imaged by the imaging device 20, and the three-dimensional coordinates are obtained from the captured image. Specifically, the marker sphere 12 is a spherical member having a different size, which is fixed to the plurality of endoscopes 11 via a bar-shaped member 13. The reason why the sizes are different is to distinguish and detect each of the images captured by the imaging device 20.

標識球12が内視鏡11に設けられる位置は、患者60に挿入される部分から更に後方の、患者60に挿入されない位置である。また、標識球12と内視鏡11の撮像方向Aとの位置関係が一定となるように、内視鏡11における、患者60の内部に挿入される部分から標識球12が設けられる部分までは、硬質の材質で形成されており屈曲できないようになっている。但し、内視鏡11の撮像方向と標識球12との位置関係が把握できればよいので、例えば、内視鏡11の先端部のみが決められた方向のみに動くような構成となっていてもよい。   The position at which the marker ball 12 is provided in the endoscope 11 is a position that is not further inserted into the patient 60, further rearward from the portion inserted into the patient 60. Further, from the portion inserted into the patient 60 to the portion where the marker ball 12 is provided in the endoscope 11 so that the positional relationship between the marker ball 12 and the imaging direction A of the endoscope 11 is constant. It is made of a hard material and cannot be bent. However, since it is only necessary to know the positional relationship between the imaging direction of the endoscope 11 and the marker sphere 12, for example, only the distal end portion of the endoscope 11 may move in a predetermined direction. .

なお、内視鏡11に設けられるマーカは、内視鏡11の撮像方向に対して定められた相対的な位置関係の位置にあり、撮像装置20により撮像された画像から三次元座標を求められるものであればよいので、必ずしも、本実施形態の標識球12のような球状のものでなくてもよい。また、内視鏡11自体の形状が、容易に三次元座標を求められるものであれば、内視鏡11自体の形状がマーカとなるので、必ずしも標識球12を設ける必要はない。   Note that the marker provided in the endoscope 11 is in a relative positional relationship determined with respect to the imaging direction of the endoscope 11, and three-dimensional coordinates can be obtained from the image captured by the imaging device 20. Since it may be a thing, it does not necessarily need to be a spherical thing like the marker sphere 12 of this embodiment. Further, if the shape of the endoscope 11 itself can easily obtain a three-dimensional coordinate, the shape of the endoscope 11 itself becomes a marker, and therefore the marker sphere 12 is not necessarily provided.

撮像装置20は、患者60に内視鏡11が差し込まれるときに、患者60の表面及び標識球12を撮像する撮像手段である。図1に示すように、患者60の鼻の穴から内視鏡11を挿入して、内視鏡11により患者60の頭部を撮像する場合には、患者60の顔面と標識球12とが撮像できるような位置に撮像装置20が設けられる。撮像装置20としては具体的には、例えば、CCDカメラが用いられる。撮像装置20は、PC40と接続されており、撮像した画像の情報をPC40に送信する。   The imaging device 20 is an imaging unit that images the surface of the patient 60 and the marker sphere 12 when the endoscope 11 is inserted into the patient 60. As shown in FIG. 1, when the endoscope 11 is inserted from the nostril of the patient 60 and the head of the patient 60 is imaged by the endoscope 11, the face of the patient 60 and the marker ball 12 are The imaging device 20 is provided at a position where imaging can be performed. Specifically, for example, a CCD camera is used as the imaging device 20. The imaging device 20 is connected to the PC 40 and transmits information of the captured image to the PC 40.

撮像装置20により撮像された画像は、撮像されたものの三次元座標(三次元位置情報)を算出するために用いられる。そのために必要な構成も併せて撮像装置20に備えておく必要がある。画像から撮像されたものの三次元座標を算出する方法としては光学的な方法を用いるものがあり、例えば、特開2003−254732号公報に記載された方法を用いることができる。この方法を用いる場合は、そのために必要な、撮像装置20により撮像される範囲にキセノンライトから発せられる自然太陽光に似た白色光に似た格子模様を投影する装置を更に設けておく。   The image picked up by the image pickup device 20 is used to calculate the three-dimensional coordinates (three-dimensional position information) of the picked-up image. Therefore, it is necessary to provide the imaging apparatus 20 with a configuration necessary for this purpose. As a method for calculating a three-dimensional coordinate of an image captured from an image, there is a method using an optical method, and for example, a method described in Japanese Patent Laid-Open No. 2003-254732 can be used. When this method is used, a device for projecting a lattice pattern similar to white light similar to natural sunlight emitted from the xenon light is further provided in a range imaged by the imaging device 20 necessary for that purpose.

なお、特開2003−254732号公報に記載された方法によれば、1秒の計測時間で、90±10cmの距離から撮像が可能となる。また、分解能は0.1〜0.6mmである。即ち、1秒で三次元位置情報を持った解像度の高いカラー画像が取得できる。また、曇りの日中(屋外)の約28%の照度の白色光であり、レーザ等を使うことなく安全に三次元位置情報を取得できる。本方法により、患者60の顔面を撮像して、情報処理されて三次元位置情報を持った解像度の高いカラー画像とした例を図2に示す。   According to the method described in Japanese Patent Laid-Open No. 2003-254732, imaging can be performed from a distance of 90 ± 10 cm in a measurement time of 1 second. The resolution is 0.1 to 0.6 mm. That is, a high-resolution color image having three-dimensional position information can be acquired in one second. Further, it is white light with an illuminance of about 28% during a cloudy daytime (outdoors), and three-dimensional position information can be acquired safely without using a laser or the like. FIG. 2 shows an example in which the face of the patient 60 is imaged by this method to obtain a high-resolution color image that has been processed and has three-dimensional position information.

CT装置30は、内視鏡11が挿入される患者60の内部を構成する面と患者60の表面の第1の三次元形状とを示す第1の情報を取得する患者形状取得手段である。内視鏡11が挿入される患者60を構成する面は、例えば、患者60の副鼻腔に内視鏡11が挿入される場合、副鼻腔を構成する面である。また、患者60の表面は、上記の場合、患者60の顔面である。ここで、CT装置30により取得される三次元形状を示す第1の情報は、例えば予めCT装置30に設定されている所定の座標軸に対する座標毎に三次元形状を示す情報を保持することによって構成されている。この座標軸は、第1の座標軸である。即ち、第1の情報は、第1の座標軸上における情報である。   The CT apparatus 30 is patient shape acquisition means for acquiring first information indicating a surface constituting the inside of the patient 60 into which the endoscope 11 is inserted and a first three-dimensional shape of the surface of the patient 60. The surface constituting the patient 60 into which the endoscope 11 is inserted is, for example, the surface constituting the sinus when the endoscope 11 is inserted into the sinus cavity of the patient 60. In addition, the surface of the patient 60 is the face of the patient 60 in the above case. Here, the first information indicating the three-dimensional shape acquired by the CT apparatus 30 is configured by, for example, holding information indicating the three-dimensional shape for each coordinate with respect to a predetermined coordinate axis set in the CT apparatus 30 in advance. Has been. This coordinate axis is the first coordinate axis. That is, the first information is information on the first coordinate axis.

CT装置30は、放射線等を利用して物体を走査し、コンピュータを用いて処理された内部構造を等間隔(例えば、1mm)毎に輪切りにしたような画像(CT画像)を、患者60の三次元形状を示す情報として構成するものであり、既存のCT装置を用いることができる。CT画像の例を図3に示す。CT装置30はPC40と接続されており、取得した患者60の三次元形状を示す情報を、PC40に送信する。なお、CT装置30は、撮像装置20と同じ場所に設置されている必要はなく、通常、撮像装置20による撮像と、CT装置30による三次元形状を示す情報の取得とは別々に行われる。なお、CT画像から三次元形状を示す情報の構成には、例えば特開2005−278992号公報に記載の方法を用いることができる。   The CT apparatus 30 scans an object using radiation or the like, and creates an image (CT image) of the internal structure processed by using a computer by cutting it at equal intervals (for example, 1 mm). It is configured as information indicating a three-dimensional shape, and an existing CT apparatus can be used. An example of a CT image is shown in FIG. The CT apparatus 30 is connected to the PC 40 and transmits information indicating the acquired three-dimensional shape of the patient 60 to the PC 40. Note that the CT apparatus 30 does not need to be installed at the same location as the imaging apparatus 20, and usually, imaging by the imaging apparatus 20 and acquisition of information indicating a three-dimensional shape by the CT apparatus 30 are performed separately. For example, a method described in Japanese Patent Laid-Open No. 2005-278992 can be used to construct information indicating a three-dimensional shape from a CT image.

なお、手術支援情報表示装置1では、患者60の内部を含む三次元形状を示す情報が取得できればよいので、患者形状取得手段として必ずしもCT装置30を用いる必要はない。例えば、MRI装置を用いることとしてもよい。   Note that the operation support information display device 1 only needs to be able to acquire information indicating a three-dimensional shape including the inside of the patient 60, and thus the CT device 30 is not necessarily used as the patient shape acquisition unit. For example, an MRI apparatus may be used.

PC40は、撮像装置20により撮像された画像の情報及びCT装置30により取得された患者60の三次元形状を示す第1の情報を受信して、これらの情報に対して情報処理を行う装置である。PC40は、具体的には、CPU(Central Processing Unit)、メモリ等のハードウェアにより構成され、これらの情報処理装置が動作することにより、下記のPC40の機能が実現される。図1に示すように、PC40は、機能的な構成要素として、患者形状取得部41と、撮像画像取得部42と、表面形状算出部43と、座標軸一致部44と、内視鏡光軸算出部45と、交点算出部46と、出力部47とを備えている。   The PC 40 is an apparatus that receives information on an image captured by the imaging apparatus 20 and first information indicating the three-dimensional shape of the patient 60 acquired by the CT apparatus 30 and performs information processing on the information. is there. Specifically, the PC 40 is configured by hardware such as a CPU (Central Processing Unit) and a memory, and the following functions of the PC 40 are realized by operating these information processing apparatuses. As shown in FIG. 1, the PC 40 includes, as functional components, a patient shape acquisition unit 41, a captured image acquisition unit 42, a surface shape calculation unit 43, a coordinate axis matching unit 44, and an endoscope optical axis calculation. Unit 45, intersection calculation unit 46, and output unit 47.

患者形状取得部41は、CT装置30から送信される、患者60の三次元形状を示す第1の情報を受信する手段である。患者形状取得部41は、受信した第1の情報を、必要に応じて座標軸一致部44及び交点算出部46等に出力する。なお、手術支援情報表示装置1では、必ずしも本実施形態のように、患者形状取得手段としてCT装置30自体を備えている必要はなく、患者形状取得部41により(手術支援情報表示装置1に含まれないCT装置で撮像等された)患者60の三次元形状を示す第1の情報が受信さえされればよい。   The patient shape acquisition unit 41 is means for receiving first information indicating the three-dimensional shape of the patient 60 transmitted from the CT apparatus 30. The patient shape acquisition unit 41 outputs the received first information to the coordinate axis matching unit 44, the intersection calculation unit 46, and the like as necessary. Note that the surgery support information display device 1 does not necessarily include the CT device 30 itself as a patient shape acquisition unit as in the present embodiment, and is included in the surgery shape information acquisition unit 41 (included in the surgery support information display device 1). It is only necessary to receive the first information indicating the three-dimensional shape of the patient 60 (captured by a non-CT apparatus).

撮像画像取得部42は、撮像装置20により撮像され送信された画像の情報を受信する手段である。即ち、撮像画像取得部42は、患者60に内視鏡11が差し込まれるときに撮像装置20により撮像された患者の表面の画像を取得する表面画像取得手段である。撮像画像取得部42は、受信した画像を表面形状算出部43及び内視鏡光軸算出部45等に出力する。   The captured image acquisition unit 42 is means for receiving information of an image captured and transmitted by the imaging device 20. That is, the captured image acquisition unit 42 is a surface image acquisition unit that acquires an image of the surface of the patient captured by the imaging device 20 when the endoscope 11 is inserted into the patient 60. The captured image acquisition unit 42 outputs the received image to the surface shape calculation unit 43, the endoscope optical axis calculation unit 45, and the like.

表面形状算出部43は、撮像装置20により撮像された患者60の表面の画像から、患者60の表面の第2の三次元形状を示す第2の情報を算出する表面形状算出手段である。患者60の表面は、本実施形態の場合、患者60の顔面である。画像から三次元形状を算出する方法は、例えば、上述した特開2003−254732号公報に記載された方法を用いることができる。第2の情報は、例えば予め表面形状算出部43に設定されている所定の座標軸に対する座標毎に三次元形状を示す情報を構成することにより算出される。この座標軸は、上述した第1の座標軸とは異なるものであり第2の座標軸である。即ち、第2の情報は、第2の座標軸上における情報である。表面形状算出部43は、算出した第2の情報を、座標軸一致部44に出力する。   The surface shape calculation unit 43 is a surface shape calculation unit that calculates second information indicating the second three-dimensional shape of the surface of the patient 60 from the image of the surface of the patient 60 captured by the imaging device 20. The surface of the patient 60 is the face of the patient 60 in this embodiment. As a method for calculating a three-dimensional shape from an image, for example, the method described in Japanese Patent Laid-Open No. 2003-254732 described above can be used. The second information is calculated, for example, by configuring information indicating a three-dimensional shape for each coordinate with respect to a predetermined coordinate axis set in the surface shape calculation unit 43 in advance. This coordinate axis is different from the first coordinate axis described above and is a second coordinate axis. That is, the second information is information on the second coordinate axis. The surface shape calculation unit 43 outputs the calculated second information to the coordinate axis matching unit 44.

座標軸一致部44は、患者形状取得部41により取得された第1の情報で示される第1の三次元形状上に複数の基準点を設け、当該複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を、表面形状算出部43により算出された第2の情報で示される第2の三次元形状の限定された範囲から算出し、当該複数の基準点と当該複数の対応点との位置関係に基づいて第1の情報と第2の情報とをマッチングすることで、第1の座標軸と第2の座標軸とを一致させる座標軸一致手段である。即ち、座標軸一致部44は、CT装置30により取得された第1の情報と、撮像装置20により撮像された画像から算出された第2の情報とを同じ座標軸上で処理できるようにするための手段である。なお、限定された範囲を算出するために必要な式、ルール、データ等は、座標軸一致部44に記憶されており、限定された範囲を算出する際に読み出される。   The coordinate axis matching unit 44 provides a plurality of reference points on the first three-dimensional shape indicated by the first information acquired by the patient shape acquisition unit 41, and for each of the plurality of reference points, from the reference point The corresponding points at the shortest distance are calculated from the limited range of the second three-dimensional shape indicated by the second information calculated by the surface shape calculating unit 43, and the plurality of reference points and the plurality of corresponding points are calculated. This is coordinate axis matching means for matching the first coordinate axis and the second coordinate axis by matching the first information and the second information based on the positional relationship between the first coordinate axis and the second information axis. That is, the coordinate axis matching unit 44 can process the first information acquired by the CT apparatus 30 and the second information calculated from the image captured by the imaging apparatus 20 on the same coordinate axis. Means. Note that formulas, rules, data, and the like necessary for calculating the limited range are stored in the coordinate axis matching unit 44 and are read out when calculating the limited range.

座標軸一致部44は、第1の座標軸と第2の座標軸とを一致させるために、反復最近傍点アルゴリズム(Iterative Closest Point Algorithm、ICPアルゴリズム)を利用する。このアルゴリズムは、点で構成された二つの図形をマッチングさせるための手法である。   The coordinate axis matching unit 44 uses an iterative nearest point algorithm (ICP algorithm) in order to match the first coordinate axis and the second coordinate axis. This algorithm is a technique for matching two figures composed of points.

座標軸一致部44の処理を、図4を参照して説明する。なお、図4では、説明の簡単のため、マッチングする図形を二次元の曲線p及びmとする。また、図4に示す例では、曲線mを固定し、曲線pを曲線mにマッチングさせるものとする。図4に示す二次元空間におけるマッチングは、本実施形態のような三次元空間におけるマッチングに簡単に拡張することができる。例えば、曲線pを第1の情報で示される第1の三次元形状と読み替えるとともに、曲線mを第2の情報で示される第2の三次元形状と読み替えることで、座標軸一致部44による第1の情報と第2の情報とのマッチングを説明できる。   Processing of the coordinate axis matching unit 44 will be described with reference to FIG. In FIG. 4, for easy explanation, two-dimensional curves p and m are used as matching figures. In the example shown in FIG. 4, the curve m is fixed and the curve p is matched with the curve m. The matching in the two-dimensional space shown in FIG. 4 can be easily extended to the matching in the three-dimensional space as in this embodiment. For example, by replacing the curve p with the first three-dimensional shape indicated by the first information and replacing the curve m with the second three-dimensional shape indicated by the second information, Can be matched with the second information.

座標軸一致部44は、まず、曲線m周辺の最短距離場を算出する。ここで、最短距離場とは、ある図形から最短距離(最短パスの長さ)に存在する点で構成される近傍空間である。次に、座標軸一致部44は、曲線p上にある任意の基準点(第1の基準点)Paを選択し、その基準点Paから最短距離にある、曲線m上の対応点Maを探索(算出)する。この対応点Maの探索は、曲線m上のすべての点について基準点Paとの距離を算出し、算出された距離を比較することで行われる。なお、座標軸一致部44は、基準点Paとの距離を算出する曲線m上の点の位置を、所定の関係式や、曲線mを構成する点の配列などにより予め算出できる。例えば、座標軸一致部44は、第1の情報又は第2の情報により、第1の三次元形状又は第2の三次元形状上に存在する点の位置を取得できる。   The coordinate axis matching unit 44 first calculates the shortest distance field around the curve m. Here, the shortest distance field is a neighborhood space composed of points existing at a shortest distance (the length of the shortest path) from a certain figure. Next, the coordinate axis matching unit 44 selects an arbitrary reference point (first reference point) Pa on the curve p, and searches for a corresponding point Ma on the curve m that is the shortest distance from the reference point Pa ( calculate. The search for the corresponding point Ma is performed by calculating the distance from the reference point Pa for all points on the curve m and comparing the calculated distances. Note that the coordinate axis matching unit 44 can calculate in advance the position of a point on the curve m for calculating the distance from the reference point Pa using a predetermined relational expression, the arrangement of the points constituting the curve m, or the like. For example, the coordinate axis matching unit 44 can acquire the position of a point existing on the first three-dimensional shape or the second three-dimensional shape based on the first information or the second information.

なお、基準点と対応点との位置関係は、それら二つの三次元形状が共通の座標軸上に存在することを前提に定義される。例えば、基準点Paと曲線m上の点との距離の算出は、曲線pと曲線mとが共通の座標軸上に存在することを前提とする。すなわち、最短距離とは、これら二つの曲線が共通の座標軸上に存在するとした場合の、基準点と対応点との距離である。   The positional relationship between the reference point and the corresponding point is defined on the assumption that the two three-dimensional shapes exist on a common coordinate axis. For example, the calculation of the distance between the reference point Pa and a point on the curve m assumes that the curve p and the curve m exist on a common coordinate axis. That is, the shortest distance is the distance between the reference point and the corresponding point when these two curves exist on a common coordinate axis.

次に、座標軸一致部44は、曲線p上にある別の基準点(第2の基準点)Pbを選択し、その基準点Pbから最短距離にある、曲線m上の対応点Mbを探索(算出)する。この際、座標軸一致部44は、曲線m上の限定された範囲に存在する複数の点と基準点Paとの距離を算出する。   Next, the coordinate axis matching unit 44 selects another reference point (second reference point) Pb on the curve p, and searches for the corresponding point Mb on the curve m that is the shortest distance from the reference point Pb ( calculate. At this time, the coordinate axis matching unit 44 calculates distances between a plurality of points existing in a limited range on the curve m and the reference point Pa.

このために、座標軸一致部44は、基準点Pa及びPbの座標値と、対応点Maの座標値と、基準点Paと対応点Maとの距離lと、基準点Pbと対応点Maとの距離dと、基準点Pbの座標値、及び曲線m周辺の最短距離場によって定まる距離l’とを取得する。これらの値は、既知のもの、又は既知の値から算出可能なものである。そして、座標軸一致部44は、取得したこれらの値に基づいて、対応点Mbを探索する範囲を決定する。   For this purpose, the coordinate axis coincidence unit 44 determines the coordinate values of the reference points Pa and Pb, the coordinate value of the corresponding point Ma, the distance 1 between the reference point Pa and the corresponding point Ma, and the reference point Pb and the corresponding point Ma. The distance d, the coordinate value of the reference point Pb, and the distance l ′ determined by the shortest distance field around the curve m are acquired. These values are known or can be calculated from known values. Then, the coordinate axis matching unit 44 determines a range for searching for the corresponding point Mb based on these acquired values.

この場合において、基準点Pbと、既知の対応点Maと、未知の対応点Mbとの位置関係から、下記の三角不等式が成り立つ。なお、dは、既知の対応点Maと未知の対応点Mbとの距離である。
≦l’+d
In this case, the following triangular inequality is established from the positional relationship among the reference point Pb, the known corresponding point Ma, and the unknown corresponding point Mb. Incidentally, d m is the distance between the known corresponding points Ma and unknown correspondence point Mb.
d m ≦ l ′ + d

したがって、未知の対応点Mbを探索すべき曲線mの範囲は、既知の対応点Maを中心とし、且つ半径が下記式で表される円C内に限定される。
r=l’+d …(1)
この半径rは、下記式を用いて算出してもよい。ただし、dは、既知の基準点Pa及びPbの間の距離である。
r=l+l’+d …(2)
Therefore, the range of the curve m to be searched for the unknown corresponding point Mb is limited to the circle C whose center is the known corresponding point Ma and whose radius is expressed by the following equation.
r = l ′ + d (1)
The radius r may be calculated using the following formula. Here, d p is a distance between known reference points Pa and Pb.
r = l + l ′ + d p (2)

なお、第1及び第2の情報で示される図形は三次元形状であるから、本実施形態において、座標軸一致部44は、上記理論に準じて算出された所定の半径を有する球内で対応点を探索する。   In addition, since the figure shown by the 1st and 2nd information is a three-dimensional shape, in this embodiment, the coordinate axis matching part 44 is a corresponding point within the sphere which has the predetermined radius calculated according to the said theory. Explore.

すなわち、座標軸一致部44は、曲線mのうち、対応点Maから上記式(1)又は(2)で定義される半径rの範囲にある点についてのみ、当該点と基準点Pbとの距離を算出する。そして、座標軸一致部44は、基準点Pbとの距離が最短である点を対応点Mbと決定する。なお、座標軸一致部44は、曲線m上の点の位置を予め算出し取得することができる。したがって、座標軸一致部44は、予め取得した曲線m上の点の位置と、対応点Maの位置と、上記式(1)又は(2)で定義される半径rとに基づいて、基準点Pbとの距離を算出すべき曲線m上の点を取得できる。   That is, the coordinate axis coincidence unit 44 calculates the distance between the point and the reference point Pb only for a point in the range of the radius r defined by the above formula (1) or (2) from the corresponding point Ma in the curve m. calculate. Then, the coordinate axis matching unit 44 determines the point having the shortest distance from the reference point Pb as the corresponding point Mb. The coordinate axis matching unit 44 can calculate and acquire the position of a point on the curve m in advance. Therefore, the coordinate axis matching unit 44 determines the reference point Pb based on the position of the point on the curve m acquired in advance, the position of the corresponding point Ma, and the radius r defined by the above formula (1) or (2). It is possible to obtain a point on the curve m for which the distance to be calculated.

その後、座標軸一致部44は、曲線p上にある一以上の別の基準点に対する対応点を探索(算出)する。この対応点の算出方法は、対応点Mbの算出方法と同様である。すなわち、二番目以降の対応点を算出する場合、座標軸一致部44は、当該対応点を曲線m上の限定された範囲から算出する。   Thereafter, the coordinate axis matching unit 44 searches (calculates) a corresponding point for one or more other reference points on the curve p. The method for calculating the corresponding point is the same as the method for calculating the corresponding point Mb. That is, when calculating the second and subsequent corresponding points, the coordinate axis matching unit 44 calculates the corresponding points from a limited range on the curve m.

続いて、座標軸一致部44は、基準点と、その基準点に対応する対応点との距離の平均値を算出する。続いて、座標軸一致部44は、複数算出された基準点と対応点との位置関係に基づいて回転行列R及び平行移動行列Tを算出し、これら二つの行列を用いて剛体変換を行う。なお、剛体変換は、剛体変換前の曲線pの位置をpi-1、剛体変換後の曲線pの位置をpiとして、下記式で表される。
i=R*pi-1+T
Subsequently, the coordinate axis matching unit 44 calculates the average value of the distance between the reference point and the corresponding point corresponding to the reference point. Subsequently, the coordinate axis matching unit 44 calculates the rotation matrix R and the translation matrix T based on the positional relationship between the plurality of calculated reference points and corresponding points, and performs rigid body transformation using these two matrices. The rigid body transformation is expressed by the following equation, where p i-1 is the position of the curve p before the rigid body transformation, and p i is the position of the curve p after the rigid body transformation.
p i = R * p i-1 + T

この剛体変換により、曲線pが回転移動又は平行移動する。座標軸一致部44は、今回算出した平均値と前回算出した平均値との差が所定の閾値未満になるまで、対応点の算出から剛体変換までの処理を繰り返し実行する。   By this rigid transformation, the curve p rotates or translates. The coordinate axis coincidence unit 44 repeatedly executes the processing from the calculation of the corresponding point to the rigid transformation until the difference between the average value calculated this time and the average value calculated last time becomes less than a predetermined threshold value.

このような座標軸一致部44の処理により、第1の座標軸及び第2の座標軸の何れか一方の座標軸をもう一方の座標軸に変換する関数が算出される。座標軸一致部44は、座標軸を一致させた結果として算出された座標軸を変換する関数等を、必要に応じて内視鏡光軸算出部45、交点算出部46及び出力部47等に出力する。上記の座標軸を一致させる処理以降は、内視鏡光軸算出部45、交点算出部46及び出力部47等において上記の関数等が、三次元形状を示す情報に適用されることによって、CT装置30による三次元形状を示す情報と、撮像装置20により撮像された画像から算出された三次元形状を示す情報とは同じ座標軸上で処理される。   By such processing of the coordinate axis coincidence unit 44, a function for converting one of the first coordinate axis and the second coordinate axis to the other coordinate axis is calculated. The coordinate axis matching unit 44 outputs a function or the like for converting the coordinate axis calculated as a result of matching the coordinate axes to the endoscope optical axis calculation unit 45, the intersection calculation unit 46, the output unit 47, and the like as necessary. After the process of matching the coordinate axes, the above functions and the like are applied to the information indicating the three-dimensional shape in the endoscope optical axis calculation unit 45, the intersection calculation unit 46, the output unit 47, and the like. The information indicating the three-dimensional shape by 30 and the information indicating the three-dimensional shape calculated from the image captured by the imaging device 20 are processed on the same coordinate axis.

内視鏡光軸算出部45は、撮像装置20により撮像された標識球12の画像から、座標軸一致部44により一致された座標軸上における、標識球12の三次元座標を算出して、標識球12と内視鏡11の撮像方向Aとの位置関係から内視鏡11の撮像方向Aである光軸を示す半直線を算出する内視鏡光軸算出手段である。なお、ここで言う撮像方向Aである光軸を示す半直線には、半直線の起点となる位置も含まれる。即ち、内視鏡11の撮像方向Aである光軸を示す半直線は、どの点からどの方向に撮像が行われるかを示したものである。内視鏡光軸算出部45は、予め、標識球12と内視鏡11の撮像方向Aとの位置関係を示す情報を保持している。当該位置関係を示す情報としては、具体的には例えば、内視鏡11の光軸(撮像方向Aである光軸を示す半直線)を通るように内視鏡11の基部の所定の位置と先端の位置とを特定して、その2点と標識球12との位置関係を示す情報が用いられる。   The endoscope optical axis calculation unit 45 calculates the three-dimensional coordinates of the marker sphere 12 on the coordinate axis matched by the coordinate axis matching unit 44 from the image of the marker sphere 12 imaged by the imaging device 20, and the marker sphere 12 12 is an endoscope optical axis calculation unit that calculates a half line indicating the optical axis that is the imaging direction A of the endoscope 11 from the positional relationship between the imaging direction 12 of the endoscope 11 and the imaging direction A of the endoscope 11. In addition, the position which becomes the starting point of a half line is included in the half line which shows the optical axis which is the imaging direction A said here. That is, the half line indicating the optical axis that is the imaging direction A of the endoscope 11 indicates from which point the imaging is performed. The endoscope optical axis calculation unit 45 holds information indicating the positional relationship between the marker sphere 12 and the imaging direction A of the endoscope 11 in advance. As the information indicating the positional relationship, specifically, for example, a predetermined position of the base of the endoscope 11 so as to pass through the optical axis of the endoscope 11 (a half line indicating the optical axis that is the imaging direction A). Information indicating the position of the tip and the positional relationship between the two points and the marker sphere 12 is used.

内視鏡11の撮像方向Aである光軸を示す半直線の算出は、具体的には、以下のように行われる。まず、内視鏡光軸算出部45は、表面形状算出部43における三次元形状を算出する方法と同様の方法で、撮像装置20により撮像された標識球12から三次元形状及び三次元座標を算出する。標識球12が複数設けられている場合、内視鏡光軸算出部45は、例えば標識球12の大きさ等からそれぞれの標識球12を識別する。   The calculation of the half line indicating the optical axis that is the imaging direction A of the endoscope 11 is specifically performed as follows. First, the endoscope optical axis calculation unit 45 calculates the three-dimensional shape and the three-dimensional coordinates from the marker sphere 12 imaged by the imaging device 20 in the same manner as the method of calculating the three-dimensional shape in the surface shape calculation unit 43. calculate. When a plurality of marker spheres 12 are provided, the endoscope optical axis calculation unit 45 identifies each marker sphere 12 based on the size of the marker sphere 12, for example.

続いて、内視鏡光軸算出部45は、算出された上記の座標軸上における標識球12の三次元座標と、標識球12と内視鏡11の撮像方向Aとの位置関係を示す情報とから、上記の座標軸上における撮像方向Aである光軸を示す半直線を算出する。内視鏡光軸算出部45は、算出した撮像方向である光軸を示す半直線の情報を、交点算出部46に出力する。   Subsequently, the endoscope optical axis calculation unit 45 includes the calculated three-dimensional coordinates of the marker sphere 12 on the coordinate axis and information indicating the positional relationship between the marker sphere 12 and the imaging direction A of the endoscope 11. Then, a half line indicating the optical axis that is the imaging direction A on the coordinate axis is calculated. The endoscope optical axis calculation unit 45 outputs half-line information indicating the optical axis that is the calculated imaging direction to the intersection calculation unit 46.

交点算出部46は、内視鏡光軸算出部45により算出された内視鏡11の撮像方向Aである光軸を示す半直線と患者形状取得部41により取得された第1の情報に係る患者60の内部を構成する面との交点を算出する交点算出手段である。この交点は、CT装置30による三次元形状を示す第1の情報において、内視鏡11が撮像を行っている点(中心点)を示すものである。具体的には、交点算出部46は、患者60の内部を構成する面をポリゴンデータにして、当該ポリゴンデータを構成する各面と内視鏡11の撮像方向Aである光軸を示す半直線との交点を算出する。交点の算出については、より詳細には後述する。交点算出部46は、算出した交点の情報を出力部47に出力する。   The intersection calculation unit 46 relates to the half line indicating the optical axis that is the imaging direction A of the endoscope 11 calculated by the endoscope optical axis calculation unit 45 and the first information acquired by the patient shape acquisition unit 41. It is an intersection calculation means for calculating an intersection with a surface constituting the inside of the patient 60. This intersection point indicates a point (center point) where the endoscope 11 is imaging in the first information indicating the three-dimensional shape by the CT apparatus 30. Specifically, the intersection calculation unit 46 converts the surfaces constituting the inside of the patient 60 into polygon data, and shows each surface constituting the polygon data and the optical axis that is the imaging direction A of the endoscope 11. The intersection point with is calculated. The calculation of the intersection will be described in detail later. The intersection calculation unit 46 outputs the calculated intersection information to the output unit 47.

出力部47は、交点算出部46により算出された交点を示す情報を、患者形状取得部41により取得された患者60の内部を構成する面を示す情報であるCT画像に重畳して、モニタ50に出力する出力手段である。また、出力部47は、内視鏡11により撮像されてPC40に入力された内視鏡画像を併せて、モニタ50に出力することとしてもよい   The output unit 47 superimposes the information indicating the intersection calculated by the intersection calculation unit 46 on the CT image which is information indicating the surface constituting the inside of the patient 60 acquired by the patient shape acquisition unit 41, and monitors the monitor 50. Is an output means for outputting to. The output unit 47 may output the endoscopic image captured by the endoscope 11 and input to the PC 40 to the monitor 50 together.

モニタ50は、PC40から入力された情報を表示する。術者はモニタ50を参照することにより、内視鏡11が患者60内部のどの部分を撮像しているのかを知ることができる。以上が、手術支援情報表示装置1の構成の構成である。   The monitor 50 displays information input from the PC 40. By referring to the monitor 50, the surgeon can know which part of the patient 60 is imaging the endoscope 11. The above is the configuration of the surgery support information display device 1.

引き続いて、手術支援情報表示装置1の動作(手術支援情報表示方法)について、図5のフローチャートを参照して説明する。この動作は、例えば、患者60に対する手術の際に内視鏡11を挿入して治療等を行うときの動作である。この説明においては、手術前の処理と手術時の処理とに分けて説明する。   Subsequently, the operation (surgery support information display method) of the surgery support information display device 1 will be described with reference to the flowchart of FIG. This operation is, for example, an operation when performing treatment or the like by inserting the endoscope 11 during surgery on the patient 60. In this description, the processing before the operation and the processing at the time of the operation will be described separately.

まず手術前に、CT装置30を用いた、患者60に対するCTスキャン撮影が行われる(S01、患者形状取得ステップ)。このCTスキャン撮影は、内視鏡11が挿入される患者60の部位に対して行われる。これにより、患者60の表面である顔面と、内視鏡11が挿入される患者60の内部を構成する面との第1の三次元形状を示す第1の情報が取得される。CT装置30によりCTスキャン撮影が行われ取得された第1の情報は、PC40に送信される。PC40では、患者形状取得部41により当該情報が取得されて、PC40内に格納される(S02、患者形状取得ステップ)。上記が手術前の処理であり、例えば、手術の前日等に行われる。   First, before the operation, CT scan imaging is performed on the patient 60 using the CT apparatus 30 (S01, patient shape acquisition step). This CT scan imaging is performed on the part of the patient 60 into which the endoscope 11 is inserted. Thereby, the 1st information which shows the 1st three-dimensional shape of the face which is the surface of patient 60, and the field which constitutes the inside of patient 60 into which endoscope 11 is inserted is acquired. The first information acquired by CT scan imaging performed by the CT apparatus 30 is transmitted to the PC 40. In the PC 40, the information is acquired by the patient shape acquisition unit 41 and stored in the PC 40 (S02, patient shape acquisition step). The above is processing before surgery, for example, performed on the day before surgery.

引き続いて、手術時の処理を説明する。まず、患者60を手術室に入室させて、図1に示すように、内視鏡11を鼻の穴から挿入できるように手術台70の上の仰向けに配置する。患者60を配置した後、内視鏡11を挿入する前に、撮像装置20によって、配置された患者60が撮像される(S03、表面画像取得ステップ)。撮像された画像は、撮像装置20からPC40に送信されて、PC40において撮像画像取得部42によって受信される。受信された画像は、撮像画像取得部42から表面形状算出部43に出力される。   Subsequently, processing during surgery will be described. First, the patient 60 enters the operating room, and as shown in FIG. 1, the endoscope 11 is placed on the back on the operating table 70 so that the endoscope 11 can be inserted through the nostril. After the patient 60 is placed and before the endoscope 11 is inserted, the placed patient 60 is imaged by the imaging device 20 (S03, surface image acquisition step). The captured image is transmitted from the imaging device 20 to the PC 40 and received by the captured image acquisition unit 42 in the PC 40. The received image is output from the captured image acquisition unit 42 to the surface shape calculation unit 43.

表面形状算出部43では、当該画像から患者60の表面である顔面の第2の三次元形状を示す第2の情報が算出される(S04、表面形状算出ステップ)。算出された第2の情報は、表面形状算出部43から座標軸一致部44に出力される。これと同じタイミングで、PC40内に格納されていた、CT装置30による患者60の三次元形状を示す情報が、患者形状取得部41から座標軸一致部44に出力される。   The surface shape calculation unit 43 calculates second information indicating the second three-dimensional shape of the face, which is the surface of the patient 60, from the image (S04, surface shape calculation step). The calculated second information is output from the surface shape calculation unit 43 to the coordinate axis matching unit 44. Information indicating the three-dimensional shape of the patient 60 by the CT apparatus 30 stored in the PC 40 is output from the patient shape obtaining unit 41 to the coordinate axis matching unit 44 at the same timing.

CT装置30による第1の情報と、撮像装置20による画像から算出された第2の情報とに係るそれぞれの座標軸は、一致していない。これらの情報を共に表示すると、図6(a)に示すように、CT装置30による情報81と、撮像装置20の画像による情報82とが位置合わせされていない状態となる。   The coordinate axes related to the first information by the CT apparatus 30 and the second information calculated from the image by the imaging apparatus 20 do not match. When these pieces of information are displayed together, as shown in FIG. 6A, the information 81 by the CT apparatus 30 and the information 82 by the image of the imaging apparatus 20 are not aligned.

ここで、座標軸一致部44によって、図6(b)に示すように、これら2つの情報81,82における顔面の形状がマッチングされて、2つの情報に係る座標軸が一致される(S05、座標軸一致ステップ)。なお、マッチングする部位は、顔面全体や顔面の鼻や頬等の特徴ある部位等、予め設定しておく。   Here, as shown in FIG. 6B, the coordinate shape matching unit 44 matches the shape of the face in the two pieces of information 81 and 82 to match the coordinate axes related to the two pieces of information (S05, coordinate axis match). Step). Note that the matching parts are set in advance, such as the whole face or a characteristic part such as the nose or cheek of the face.

座標軸を一致させる処理を、図7のフローチャートを参照して詳細に説明する。まず、患者形状取得部41により取得された第1の情報と、表面形状算出部43により算出された第2の情報とが用意される(ステップS51)。続いて、第1の情報で示される第1の三次元形状上の基準点に対応する対応点が、第2の情報で示される第2の三次元形状から抽出される(ステップS52)。この抽出は、予め定められた個数分の対応点をすべて抽出するまで繰り返し実行される(ステップS53;NO)。このとき、二番目以降の対応点の抽出において、対応点は、第2の三次元形状の限定された範囲から抽出される。   The process of matching the coordinate axes will be described in detail with reference to the flowchart of FIG. First, the 1st information acquired by patient shape acquisition part 41 and the 2nd information calculated by surface shape calculation part 43 are prepared (Step S51). Subsequently, a corresponding point corresponding to the reference point on the first three-dimensional shape indicated by the first information is extracted from the second three-dimensional shape indicated by the second information (step S52). This extraction is repeated until all the corresponding points for a predetermined number are extracted (step S53; NO). At this time, in the extraction of the second and subsequent corresponding points, the corresponding points are extracted from a limited range of the second three-dimensional shape.

そして、すべての対応点が抽出されると(ステップS53;YES)、基準点と対応点との距離の平均値が算出される(ステップS54)。続いて、複数算出された基準点と対応点との位置関係に基づいて、回転行列及び平行移動行列が算出される(ステップS55)。続いて、その回転行列及び平行移動行列に基づいて、第1の情報で示される第1の三次元形状が剛体変換される(ステップS56)。続いて、今回算出された平均値と前回算出された平均との差が閾値未満か否かが判定される(ステップS57)。   When all the corresponding points are extracted (step S53; YES), the average value of the distance between the reference point and the corresponding point is calculated (step S54). Subsequently, a rotation matrix and a translation matrix are calculated based on the positional relationship between the plurality of calculated reference points and corresponding points (step S55). Subsequently, the first three-dimensional shape indicated by the first information is rigidly transformed based on the rotation matrix and the translation matrix (step S56). Subsequently, it is determined whether or not the difference between the average value calculated this time and the average calculated last time is less than a threshold value (step S57).

ここで、平均値の差が閾値以上であれば(ステップS57;NO)、上記ステップS52の以降の処理が繰り返し実行され、その差が閾値未満であれば(ステップS57;YES)、処理が終了する。これにより、第1の座標軸と第2の座標軸とが一致される。   Here, if the difference between the average values is equal to or greater than the threshold value (step S57; NO), the process after step S52 is repeatedly executed. If the difference is less than the threshold value (step S57; YES), the process ends. To do. As a result, the first coordinate axis and the second coordinate axis are matched.

一致した座標軸に係る情報は、座標軸一致部44から、内視鏡光軸算出部45、交点算出部46及び出力部47にそれぞれ出力されて座標軸の変換等が行われて、これ以降、一致した座標軸を基準として三次元形状に対する情報処理が行われる。上記が手術開始までの処理である。   The information related to the coordinate axes that coincided is output from the coordinate axis coincidence unit 44 to the endoscope optical axis calculation unit 45, the intersection calculation unit 46, and the output unit 47, respectively, and the coordinate axes are converted. Information processing on the three-dimensional shape is performed with reference to the coordinate axes. The above is the process until the start of surgery.

続いて、手術が開始され、術者によって、内視鏡11が患者60に挿入される。この際、患者60の頭部は、S03〜S05の処理を行ったときから動かさないようにする。座標軸がずれることを防止するためである。内視鏡11が患者60に挿入される際に、撮像装置20によって、患者60及び標識球12が撮像される(S06、表面画像取得ステップ)。図8(a)に示すように、撮像された画像には、標識球12(の画像)が含まれている。撮像された画像は、撮像装置20からPC40に送信されて、PC40において撮像画像取得部42によって受信される。受信された画像は、撮像画像取得部42から内視鏡光軸算出部45に出力される。   Subsequently, an operation is started, and the endoscope 11 is inserted into the patient 60 by the operator. At this time, the head of the patient 60 is prevented from moving after the processing of S03 to S05 is performed. This is to prevent the coordinate axes from shifting. When the endoscope 11 is inserted into the patient 60, the patient 60 and the marker sphere 12 are imaged by the imaging device 20 (S06, surface image acquisition step). As shown in FIG. 8A, the captured image includes a marker sphere 12 (image thereof). The captured image is transmitted from the imaging device 20 to the PC 40 and received by the captured image acquisition unit 42 in the PC 40. The received image is output from the captured image acquisition unit 42 to the endoscope optical axis calculation unit 45.

続いて、内視鏡光軸算出部45によって、図8(b)に示すように、画像から標識球12の三次元座標が算出される(S07、内視鏡光軸算出ステップ)。続いて、内視鏡光軸算出部45によって、算出された標識球12の三次元座標から、予め保持していた標識球12と内視鏡11の撮像方向Aとの位置関係を示す情報に基づいて、一致された座標軸上での内視鏡11の撮像方向Aである光軸を示す半直線が算出される(S08、内視鏡光軸算出ステップ)。   Subsequently, as shown in FIG. 8B, the three-dimensional coordinates of the marker sphere 12 are calculated from the image by the endoscope optical axis calculation unit 45 (S07, endoscope optical axis calculation step). Subsequently, information indicating the positional relationship between the marker sphere 12 and the imaging direction A of the endoscope 11 held in advance is calculated from the three-dimensional coordinates of the marker sphere 12 calculated by the endoscope optical axis calculator 45. Based on this, a half line indicating the optical axis that is the imaging direction A of the endoscope 11 on the coordinate axes that are matched is calculated (S08, endoscope optical axis calculating step).

算出された半直線の情報は、内視鏡光軸算出部45から交点算出部46に出力される。これと同じタイミングで、PC40内に格納されていた、CT装置30による第1の情報が、患者形状取得部41から交点算出部46に出力される。続いて、交点算出部46によって、内視鏡11の撮像方向Aである光軸を示す半直線と、患者60の内部を構成する面との交点が算出される(S09、交点算出ステップ)。   The calculated half-line information is output from the endoscope optical axis calculation unit 45 to the intersection calculation unit 46. At the same timing, the first information by the CT apparatus 30 stored in the PC 40 is output from the patient shape acquisition unit 41 to the intersection calculation unit 46. Subsequently, the intersection calculation unit 46 calculates the intersection between the half line indicating the optical axis that is the imaging direction A of the endoscope 11 and the surface constituting the inside of the patient 60 (S09, intersection calculation step).

交点の算出は、以下のように行われる。まず、交点算出部46によって、CT装置30による第1の情報が、ポリゴンデータに変換される。この変換により、患者60(の内部)を構成する面が、例えば多数の三角形で構成させることとなる。次に、それらの各三角形と、内視鏡11の撮像方向Aである光軸を示す半直線との交点が算出される。   The intersection is calculated as follows. First, the intersection calculation unit 46 converts the first information from the CT apparatus 30 into polygon data. By this conversion, the surface constituting the patient 60 (inside) is constituted by, for example, a large number of triangles. Next, the intersection of each triangle and the half line indicating the optical axis that is the imaging direction A of the endoscope 11 is calculated.

この交点の算出について、図9を用いて説明する。ポリゴンを構成する三角形の基準となる点をPT、三角形の2辺のベクトルをそれぞれvecA及びvecBとし、2つの媒介変数をα及びβとすると、三角形は以下の式で表すことができる。
P1=PT+αvecA+βvecB
また、内視鏡11の撮像方向Aの基準となる点(例えば、内視鏡11の先端の点)をPL、半直線の方向を示すベクトルをvecCとし、媒介変数をγとすると、内視鏡11の撮像方向Aは以下の式で表すことができる。
P2=PL+γvecC
The calculation of the intersection will be described with reference to FIG. A triangle can be expressed by the following expression, where PT is a reference point of a triangle constituting a polygon, two vectors of the triangle are vecA and vecB, and two parameters are α and β.
P1 = PT + αvecA + βvecB
Further, assuming that the reference point of the imaging direction A of the endoscope 11 (for example, the point at the tip of the endoscope 11) is PL, the vector indicating the direction of the half line is vecC, and the parameter is γ, The imaging direction A of the mirror 11 can be expressed by the following equation.
P2 = PL + γvecC

ここで、両者が交わるときはP1=P2となる。P1=P2となる点が、三角形の内部に存在する条件は、媒介変数が以下の条件を満たす場合である。
条件1:0<α,0<β
条件2:0<α+β<1
条件3:γ>0
これらの条件を満たす点を全てのポリゴンデータを構成する三角形について導出し、それら全ての点と内視鏡11の先端の点との距離を計算する。この距離が最も小さくなる交点を、内視鏡11の撮像方向Aである光軸を示す半直線と患者60の内部を構成する面との交点とする。
Here, when the two intersect, P1 = P2. The condition that the point where P1 = P2 exists inside the triangle is when the parameter satisfies the following condition.
Condition 1: 0 <α, 0 <β
Condition 2: 0 <α + β <1
Condition 3: γ> 0
Points that satisfy these conditions are derived for the triangles that make up all the polygon data, and the distance between all these points and the point at the tip of the endoscope 11 is calculated. The intersection at which this distance is the smallest is the intersection of the half line indicating the optical axis that is the imaging direction A of the endoscope 11 and the surface that forms the inside of the patient 60.

算出された交点の座標の情報は、交点算出部46から出力部47に出力される。このタイミングで、患者60の内部を構成する面を示す情報であるCT画像が、患者形状取得部41から出力部47に出力される。交点の情報は、出力部47によって、患者60の内部を構成する面を示す情報であるCT画像に当該交点の座標に応じた箇所に重畳されて、モニタ50に入力される。入力された画像は、モニタ50によって表示される(S10、出力ステップ)。交点の表示は、具体的には例えば、図10に示すように、内視鏡11により撮像されている箇所がどの点に位置しているかが分かるように、十字の表示90として行われる。術者は表示された画像を参照することにより、内視鏡11が患者60内部のどの部分を撮像しているのかを知ることができる。   Information on the coordinates of the calculated intersection is output from the intersection calculation unit 46 to the output unit 47. At this timing, a CT image that is information indicating a surface constituting the inside of the patient 60 is output from the patient shape acquisition unit 41 to the output unit 47. The information on the intersection is input to the monitor 50 by the output unit 47 by superimposing the CT image, which is information indicating the surface constituting the inside of the patient 60, at a location corresponding to the coordinates of the intersection. The input image is displayed on the monitor 50 (S10, output step). Specifically, for example, as shown in FIG. 10, the intersection point is displayed as a cross display 90 so that the point where the part imaged by the endoscope 11 is located can be seen. By referring to the displayed image, the surgeon can know which part of the patient 60 is imaging the endoscope 11.

また、内視鏡11により撮像された画像も、PC40によって受信されて出力部47からモニタ50に出力されるようにして、上記の内視鏡11により撮像されている箇所がどの点に位置しているかの表示と併せて表示されるようにすることが望ましい。例えば、図11に示す画面例91のように、内視鏡11により撮像された画像92と、内視鏡11により撮像されている箇所がどの点に位置しているかが示されたCT画像93a〜93cとを1つの画面に示すこととするのがよい。また、その際の内視鏡11の画像には、交点に対応する箇所を示す情報(例えば、十字形(+)のマーク)94を重畳させることが望ましい。内視鏡11の画像における交点に対応する箇所を示す情報の位置は、例えば、画像の中心等、内視鏡11の撮像方向に応じて予め出力部47に記憶させておく。また、術者が対応する箇所を理解しやすいように、CT画像93a〜93cは、断面がそれぞれ異なるもの(断面がそれぞれ直交するものがよい)を複数、表示することとするのがよい。図11では、CT画像93aは横断面のもの、CT画像93bは冠状断面のもの、CT画像93cは、矢状断面のものである。更に、CT画像93a〜93cには、交点の情報(画像とは色違いの四角95で示す)に加えて、内視鏡11が挿入されている方向(内視鏡11の撮像方向である光軸)96を示すことが望ましい。   In addition, the image captured by the endoscope 11 is also received by the PC 40 and output from the output unit 47 to the monitor 50, so that the position where the image is captured by the endoscope 11 is located at any point. It is desirable to be displayed together with the display of whether or not For example, as in a screen example 91 shown in FIG. 11, an image 92 captured by the endoscope 11 and a CT image 93 a that indicates where the position captured by the endoscope 11 is located. ~ 93c should be shown on one screen. In addition, it is desirable to superimpose information (for example, a cross (+) mark) 94 indicating a location corresponding to the intersection on the image of the endoscope 11 at that time. The position of the information indicating the location corresponding to the intersection in the image of the endoscope 11 is stored in advance in the output unit 47 according to the imaging direction of the endoscope 11 such as the center of the image, for example. In order to make it easier for the surgeon to understand the corresponding location, the CT images 93a to 93c preferably display a plurality of different cross sections (preferably cross sections that are orthogonal to each other). In FIG. 11, the CT image 93a has a transverse cross section, the CT image 93b has a coronal cross section, and the CT image 93c has a sagittal cross section. Further, in the CT images 93 a to 93 c, in addition to the intersection information (indicated by a square 95 of a different color from the image), the direction in which the endoscope 11 is inserted (light that is the imaging direction of the endoscope 11). It is desirable to show axis 96.

上記のS06〜S10までの処理は、例えば、1秒間間隔等の等間隔で繰り返し行われる。なお、PC40におけるS03〜S05の処理と、S06〜S10の処理とは異なっているが、例えば、S05の座標軸の一致の処理が行われたら、自動的にS06以降の処理に移るようにしてもよい。また、術者等の操作により処理の切替が行われてもよい。   The processes from S06 to S10 are repeatedly performed at equal intervals such as 1 second. In addition, although the process of S03-S05 and the process of S06-S10 in PC40 are different, for example, if the process of matching the coordinate axes of S05 is performed, the process may be automatically shifted to the process after S06. Good. Further, the process may be switched by an operation of an operator or the like.

また、S03〜S05の処理による初回の位置合わせ後に患者60の頭部を動かした場合でも、再度S03〜S05の処理を行い改めて位置合わせを行なうこととすればよい。再度の位置合わせは、例えば、術者等の操作により行われてもよいし、位置合わせしたときの画像とその後の画像とを比較して、頭部が動いたことを検出して、それをトリガとして行われてもよい。   Further, even when the head of the patient 60 is moved after the initial alignment by the processing of S03 to S05, the processing of S03 to S05 may be performed again to perform alignment again. The re-alignment may be performed, for example, by an operation of an operator or the like, or the image at the time of alignment is compared with the subsequent image to detect that the head has moved, and It may be performed as a trigger.

上述したように本実施形態に係る手術支援情報表示装置1では、CT装置30による患者60の内部を構成する面と患者の表面の第1の三次元形状とを示す第1の情報と、撮像装置20により外部から患者60を撮像した画像とのみを用いて、内視鏡11で撮像している部分が、患者60のどの部位に相当するかを表示することができる。従って、本実施形態に係る手術支援情報表示装置1によれば、新たに特殊な内視鏡を用いることなく、上記の表示を行うことができる。また、本実施形態に係る手術支援情報表示装置1によれば、上記の表示において、患者の体内の脳脊髄液等のような液体の影響を受けることが無いので、正確に上記の表示を行うことができる。従って、本実施形態に係る手術支援情報表示装置1を用いれば、安全かつ正確に手術を行うことができる。   As described above, in the surgery support information display device 1 according to the present embodiment, the first information indicating the surface constituting the inside of the patient 60 by the CT device 30 and the first three-dimensional shape of the surface of the patient, and imaging It is possible to display which part of the patient 60 corresponds to the part imaged by the endoscope 11 using only the image obtained by imaging the patient 60 from the outside by the apparatus 20. Therefore, according to the surgery support information display device 1 according to the present embodiment, the above-described display can be performed without newly using a special endoscope. In addition, according to the surgery support information display device 1 according to the present embodiment, the display is not affected by a liquid such as cerebrospinal fluid in the patient's body, and thus the above display is performed accurately. be able to. Therefore, if the surgery support information display device 1 according to the present embodiment is used, the surgery can be performed safely and accurately.

また、本実施形態に係る手術支援情報表示装置1では、第1の三次元形状上の基準点に対応する、第2の三次元形状上の対応点を算出する際に、当該算出の範囲が限定される。そのため、対応点をより早く算出ができ、その結果、第1の座標軸と第2の座標軸とをより短時間に一致させることが可能になる。   Further, in the surgery support information display device 1 according to the present embodiment, when calculating the corresponding point on the second three-dimensional shape corresponding to the reference point on the first three-dimensional shape, the calculation range is Limited. For this reason, the corresponding points can be calculated earlier, and as a result, the first coordinate axis and the second coordinate axis can be matched in a shorter time.

また、CTスキャン撮影(S01)の際に、患者60にマーク等をつける必要がなく、通常通りのCTスキャン撮影を行えばよいので、簡便である。また、位置合わせ等のために患者60をピンなどで固定する必要がない。患者60を手術中に動かしたとしても、容易に位置合わせを行うことができる。上記の手術支援情報表示装置1の各構成要素は、比較的安価であり、低コストで実現することができる。   In addition, it is not necessary to mark the patient 60 during CT scan imaging (S01), and it is convenient because CT scan imaging can be performed as usual. Further, it is not necessary to fix the patient 60 with pins or the like for alignment or the like. Even if the patient 60 is moved during the operation, the alignment can be easily performed. Each component of the surgery support information display device 1 is relatively inexpensive and can be realized at low cost.

また、本実施形態のように内視鏡11にマーカである標識球12を設けておき、マーカを用いて内視鏡11の撮像方向である光軸を示す半直線を算出することとすれば、正確な半直線がより確実に算出できるので、より確実に正確な上記の表示を行うことができる。但し、マーカを用いずに、内視鏡11の撮像方向である光軸を示す半直線を算出することとしてもよい。例えば、本実施形態において、撮像装置20による画像から患者の表面を算出した方法と同様に、内視鏡11の形状を算出して、当該形状から内視鏡11の撮像方向である光軸を示す半直線を算出することとしてもよい。   Moreover, if the marker sphere 12 which is a marker is provided in the endoscope 11 as in this embodiment, and a half line indicating the optical axis which is the imaging direction of the endoscope 11 is calculated using the marker. Since an accurate half line can be calculated more reliably, the above-mentioned display can be performed more reliably. However, a half line indicating the optical axis that is the imaging direction of the endoscope 11 may be calculated without using the marker. For example, in the present embodiment, similar to the method of calculating the surface of the patient from the image by the imaging device 20, the shape of the endoscope 11 is calculated, and the optical axis that is the imaging direction of the endoscope 11 is calculated from the shape. The half line shown may be calculated.

なお、本発明は、画像や情報のPC40への入力さえあれば実施可能であるので、手術支援情報表示装置1には必ずしも、内視鏡11、撮像装置20及びCT装置30等のハードウェアを備えている必要はない。即ち、本発明は、PC40の備える各構成要素41〜47のみを備えていれば実施可能である。   Note that the present invention can be implemented as long as an image or information is input to the PC 40. Therefore, the surgery support information display device 1 does not necessarily include hardware such as the endoscope 11, the imaging device 20, and the CT device 30. It is not necessary to have. That is, the present invention can be implemented as long as each component 41 to 47 included in the PC 40 is provided.

また、本実施形態のように、CT装置30による患者60の三次元情報をポリゴンデータとし交点を求めることとすれば、確実に交点を算出することができ、確実に本発明を実施することができる。   Further, as in the present embodiment, if the three-dimensional information of the patient 60 by the CT apparatus 30 is used as polygon data and the intersection point is obtained, the intersection point can be calculated reliably, and the present invention can be reliably implemented. it can.

また、内視鏡11で撮像している部分が、患者60のどの部位に相当するかの情報に併せて、内視鏡11により撮像された画像自体も表示することとすれば、術者等が、内視鏡11で撮像された内容と、内視鏡11で撮像されている部分が患者60のどの部位に相当するかの情報との両方を同時に確認することができるので、より利便性の高い手術支援を行うことができる。   In addition, if the image captured by the endoscope 11 is also displayed together with information on which part of the patient 60 the portion captured by the endoscope 11 corresponds to, the operator or the like However, since it is possible to simultaneously confirm both the content captured by the endoscope 11 and the information on which part of the patient 60 the portion captured by the endoscope 11 corresponds to, it is more convenient. High surgical support can be performed.

また、座標軸一致部44は、例えば図4に示すように、基準点Paに対応する算出済の対応点Maの位置と、基準点Pbの位置とに基づいて、対応点Maを中心とする半径rの円Cを算出し、その円Cを曲線mの限定された範囲とする。これにより、未知の対応点Mbを算出するための限定された範囲が設定されるので、より早くその対応点Mbを算出することができる。このことは、他の対応点を算出する場合も同様である。   Further, for example, as illustrated in FIG. 4, the coordinate axis matching unit 44 has a radius centered on the corresponding point Ma based on the position of the calculated corresponding point Ma corresponding to the reference point Pa and the position of the reference point Pb. The circle C of r is calculated, and the circle C is set as a limited range of the curve m. Thereby, since the limited range for calculating the unknown corresponding point Mb is set, the corresponding point Mb can be calculated more quickly. The same applies to the calculation of other corresponding points.

また、座標軸一致部44は、例えば図4に示すように、算出済の対応点Maを中心とし、当該対応点Maの位置と、基準点Pbの位置と、曲線mの最短距離場とに基づいて算出される値(l’+d)を半径rとする円Cを限定された範囲とする。加えて、座標軸一致部44は、例えば図4に示すように、算出済の対応点Maを中心とし、当該対応点Maの位置と、基準点Paの位置と、基準点Pbの位置と、曲線mの最短距離場とに基づいて算出される値(l+l’+d)を半径rとする円Cを限定された範囲とすることもできる。これにより、未知の対応点Mbを算出するための限定された範囲(円C)が設定されるので、より早くその対応点Mbを算出することができる。このことは、他の対応点を算出する場合も同様である。 Further, as shown in FIG. 4, for example, the coordinate axis matching unit 44 is based on the calculated corresponding point Ma, the position of the corresponding point Ma, the position of the reference point Pb, and the shortest distance field of the curve m. A circle C having a radius r of a value (l ′ + d) calculated in this way is defined as a limited range. In addition, for example, as shown in FIG. 4, the coordinate axis matching unit 44 is centered on the calculated corresponding point Ma, the position of the corresponding point Ma, the position of the reference point Pa, the position of the reference point Pb, and a curve A circle C having a radius r of a value (l + l ′ + d p ) calculated based on the shortest distance field of m may be a limited range. Thereby, since the limited range (circle C) for calculating the unknown corresponding point Mb is set, the corresponding point Mb can be calculated earlier. The same applies to the calculation of other corresponding points.

また、座標軸一致部44は、表面形状算出部43により算出された第2の情報で示される第2の三次元形状上に存在し、且つ患者形状取得部41により取得された第1の情報で示される第1の三次元形状上の基準点から最短距離にある対応点を、当該第2の三次元形状の限定された範囲から算出し、当該基準点と当該対応点との位置関係に基づいて第1の情報を変換することで、当該第1の情報と第2の情報とをマッチングする。これにより、CT装置30により取得された第1の情報のみを変換することでマッチングが行われる。すなわち、撮像装置20の画像に基づいて算出された第2の情報を処理する必要がない。そのため、より簡易に第1の座標軸と第2の座標軸とを一致させることができる。   The coordinate axis matching unit 44 is the first information that exists on the second three-dimensional shape indicated by the second information calculated by the surface shape calculation unit 43 and is acquired by the patient shape acquisition unit 41. The corresponding point at the shortest distance from the reference point on the first three-dimensional shape shown is calculated from the limited range of the second three-dimensional shape, and based on the positional relationship between the reference point and the corresponding point By converting the first information, the first information and the second information are matched. Thus, matching is performed by converting only the first information acquired by the CT apparatus 30. That is, it is not necessary to process the second information calculated based on the image of the imaging device 20. Therefore, the first coordinate axis and the second coordinate axis can be matched more easily.

引き続いて、上述した一連の手術支援情報の表示を行う処理をコンピュータに実行させるための手術支援情報表示プログラムを説明する。図12に示すように、手術支援情報表示プログラム82は、コンピュータが備える記録媒体80に形成されたプログラム格納領域80a内に格納されている。   Subsequently, a description will be given of a surgery support information display program for causing a computer to execute the processing for displaying the series of surgery support information described above. As shown in FIG. 12, the surgery support information display program 82 is stored in a program storage area 80a formed in a recording medium 80 provided in the computer.

手術支援情報表示プログラム81は、手術支援情報の表示処理を統括的に制御するメインモジュール81aと、患者形状取得モジュール81bと、撮像画像取得モジュール81cと、表面形状算出モジュール81dと、座標軸一致モジュール81eと、内視鏡光軸算出モジュール81fと、交点算出モジュール81gと、出力モジュール81hとを備えて構成される。患者形状取得モジュール81b、撮像画像取得モジュール81c、表面形状算出モジュール81d、座標軸一致モジュール81e、内視鏡光軸算出モジュール81f、交点算出モジュール81g及び出力モジュール81hを実行させることにより実現される機能は、上述したPC40の患者形状取得部41、撮像画像取得部42、表面形状算出部43、座標軸一致部44、内視鏡光軸算出部45、交点算出部46及び出力部47の機能とそれぞれ同様である。   The surgery support information display program 81 includes a main module 81a that centrally controls display processing of surgery support information, a patient shape acquisition module 81b, a captured image acquisition module 81c, a surface shape calculation module 81d, and a coordinate axis matching module 81e. An endoscope optical axis calculation module 81f, an intersection calculation module 81g, and an output module 81h. Functions realized by executing the patient shape acquisition module 81b, the captured image acquisition module 81c, the surface shape calculation module 81d, the coordinate axis matching module 81e, the endoscope optical axis calculation module 81f, the intersection calculation module 81g, and the output module 81h The functions of the patient shape acquisition unit 41, the captured image acquisition unit 42, the surface shape calculation unit 43, the coordinate axis matching unit 44, the endoscope optical axis calculation unit 45, the intersection calculation unit 46, and the output unit 47 of the PC 40 described above, respectively. It is.

なお、手術支援情報表示プログラム81は、その一部若しくは全部が、通信回線等の伝送媒体を介して伝送され、他の機器により受信されて記録(インストールを含む)される構成としてもよい。   The surgery support information display program 81 may be partly or wholly transmitted via a transmission medium such as a communication line, received by another device, and recorded (including installation).

本発明の実施形態に係る手術支援情報表示装置の構成を示す図である。It is a figure which shows the structure of the surgery assistance information display apparatus which concerns on embodiment of this invention. 撮像装置により撮像され、情報処理されて三次元位置情報を持った、患者の顔面の画像を示す図である。It is a figure which shows the image of a patient's face which was imaged with the imaging device, was information-processed, and had 3D position information. CT装置により取得されたCT画像を示す図である。It is a figure which shows CT image acquired by CT apparatus. 図1に示す座標軸一致部の処理の概念を示す図である。It is a figure which shows the concept of a process of the coordinate axis matching part shown in FIG. 本発明の実施形態に係る手術支援情報表示装置での処理を示すフローチャートである。It is a flowchart which shows the process in the surgery assistance information display apparatus which concerns on embodiment of this invention. CT装置による患者の三次元形状を示す情報と、撮像装置による画像から算出された患者の三次元形状を示す情報とのマッチング処理を示す図である。It is a figure which shows the matching process of the information which shows the patient's three-dimensional shape by CT apparatus, and the information which shows the patient's three-dimensional shape calculated from the image by an imaging device. 図5に示す座標軸一致処理を示すフローチャートである。It is a flowchart which shows the coordinate axis matching process shown in FIG. 撮像装置による画像から標識球の三次元座標を算出する処理を示した図である。It is the figure which showed the process which calculates the three-dimensional coordinate of a marker ball from the image by an imaging device. 患者の面を構成する三角形と内視鏡の撮像方向である光軸を示す半直線との交点を示した図である。It is the figure which showed the intersection of the triangle which comprises a patient's surface, and the half line which shows the optical axis which is the imaging direction of an endoscope. 内視鏡により撮像されている点が示されたCT画像を示す図である。It is a figure which shows the CT image in which the point imaged with the endoscope was shown. 内視鏡により撮像されている点が示されたCT画像、及び内視鏡により撮像されている画像を示す図である。It is a figure which shows the CT image in which the point imaged with the endoscope was shown, and the image imaged with the endoscope. 本発明に係る手術支援情報表示プログラムの構成を示す図である。It is a figure which shows the structure of the surgery assistance information display program which concerns on this invention.

符号の説明Explanation of symbols

1…手術支援情報表示装置、11…内視鏡、12…標識球、20…撮像装置、30…CT装置、40…PC、41…患者形状取得部、42…撮像画像取得部、43…表面形状算出部、44…座標軸一致部、45…内視鏡光軸算出部、46…交点算出部、47…出力部、50…モニタ、60…患者、70…手術台、80…記録媒体、80a…プログラム格納領域、81…手術支援情報表示プログラム、81a…メインモジュール、81b…患者形状取得モジュール、81c…撮像画像取得モジュール、81d…表面形状算出モジュール、81e…座標軸一致モジュール、81f…内視鏡光軸算出モジュール、81g…交点算出モジュール、81h…出力モジュール。   DESCRIPTION OF SYMBOLS 1 ... Surgery support information display apparatus, 11 ... Endoscope, 12 ... Marking ball, 20 ... Imaging apparatus, 30 ... CT apparatus, 40 ... PC, 41 ... Patient shape acquisition part, 42 ... Captured image acquisition part, 43 ... Surface Shape calculation unit 44 ... Coordinate axis matching unit 45 ... Endoscope optical axis calculation unit 46 ... Intersection calculation unit 47 ... Output unit 50 ... Monitor 60 ... Patient 70 ... Operating table 80 ... Recording medium 80a ... Program storage area, 81 ... Surgery support information display program, 81a ... Main module, 81b ... Patient shape acquisition module, 81c ... Captured image acquisition module, 81d ... Surface shape calculation module, 81e ... Coordinate axis matching module, 81f ... Endoscope Optical axis calculation module, 81g ... intersection calculation module, 81h ... output module.

Claims (11)

患者の内部に挿入されて当該内部を撮像する内視鏡と、
第1の座標軸上における、前記内視鏡が挿入される前記患者の内部を構成する面と当該患者の表面の第1の三次元形状とを示す第1の情報を取得する患者形状取得手段と、
前記患者に前記内視鏡が差し込まれるときに、前記患者の表面を撮像する撮像手段と、
前記撮像手段により撮像された前記患者の表面の画像から、第2の座標軸上における当該患者の表面の第2の三次元形状を示す第2の情報を算出する表面形状算出手段と、
前記患者形状取得手段により取得された第1の情報で示される前記第1の三次元形状、及び前記表面形状算出手段により算出された第2の情報で示される前記第2の三次元形状のうち一方の三次元形状上に複数の基準点を設け、当該複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の三次元形状の限定された範囲から算出し、当該複数の基準点と当該複数の対応点との位置関係に基づいて前記第1の情報と前記第2の情報とをマッチングすることで、前記第1の座標軸と前記第2の座標軸とを一致させる座標軸一致手段と、
前記撮像手段により撮像された画像から、前記座標軸一致手段により前記第1の座標軸に一致された前記第2の座標軸上における前記内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出手段と、
前記内視鏡光軸算出手段により算出された前記内視鏡の撮像方向である光軸を示す半直線と前記患者形状取得手段により取得された第1の情報に係る前記患者の内部を構成する面との交点を算出する交点算出手段と、
前記交点算出手段により算出された交点を示す情報を、前記患者形状取得手段により取得された前記患者の内部を構成する面を示す情報に重畳して出力する出力手段と、
を備える手術支援情報表示装置。
An endoscope that is inserted into the patient and images the interior;
Patient shape acquisition means for acquiring first information indicating a surface constituting the inside of the patient into which the endoscope is inserted and a first three-dimensional shape of the surface of the patient on the first coordinate axis; ,
Imaging means for imaging the surface of the patient when the endoscope is inserted into the patient;
Surface shape calculating means for calculating second information indicating a second three-dimensional shape of the surface of the patient on a second coordinate axis from the image of the surface of the patient imaged by the imaging means;
Of the first three-dimensional shape indicated by the first information acquired by the patient shape acquisition means and the second three-dimensional shape indicated by the second information calculated by the surface shape calculation means A plurality of reference points are provided on one three-dimensional shape, and for each of the plurality of reference points, the corresponding point at the shortest distance from the reference point is calculated from the limited range of the other three-dimensional shape, A coordinate axis that matches the first coordinate axis and the second coordinate axis by matching the first information and the second information based on the positional relationship between the reference point and the corresponding points. Matching means;
A half line indicating an optical axis that is an imaging direction of the endoscope on the second coordinate axis matched with the first coordinate axis by the coordinate axis matching means is calculated from an image captured by the imaging means. Endoscope optical axis calculation means;
The inside of the patient according to the first information acquired by the patient shape acquisition unit and the half line indicating the optical axis that is the imaging direction of the endoscope calculated by the endoscope optical axis calculation unit is configured. An intersection calculation means for calculating an intersection with the surface;
Output means for superimposing and outputting the information indicating the intersection calculated by the intersection calculation means on the information indicating the surface constituting the inside of the patient acquired by the patient shape acquisition means;
An operation support information display device comprising:
前記内視鏡の撮像方向に対して予め定められた相対的な位置関係の位置に固定されて設けられるマーカを更に備え、
前記撮像手段は、前記患者に前記内視鏡が差し込まれるときに、前記患者の表面と共に前記マーカを撮像し、
前記内視鏡光軸算出手段は、前記撮像手段により撮像された前記マーカの画像から、前記座標軸一致手段により前記第1の座標軸に一致された前記第2の座標軸上における、前記マーカの三次元座標を算出して、当該マーカと前記内視鏡の撮像方向との前記位置関係から前記内視鏡の撮像方向である光軸を示す半直線を算出する、
ことを特徴とする請求項1に記載の手術支援情報表示装置。
A marker that is fixed and provided at a predetermined relative positional relationship with respect to the imaging direction of the endoscope;
The imaging means images the marker together with the surface of the patient when the endoscope is inserted into the patient;
The endoscope optical axis calculation means is a three-dimensional image of the marker on the second coordinate axis that is matched with the first coordinate axis by the coordinate axis matching means from the image of the marker imaged by the imaging means. Calculate coordinates, and calculate a half line indicating the optical axis that is the imaging direction of the endoscope from the positional relationship between the marker and the imaging direction of the endoscope.
The surgery support information display device according to claim 1, wherein
第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面と当該患者の表面の第1の三次元形状とを示す第1の情報を取得する患者形状取得手段と、
前記患者に前記内視鏡が差し込まれるときに撮像された前記患者の表面の画像を取得する表面画像取得手段と、
前記表面画像取得手段により取得された前記患者の表面の画像から、第2の座標軸上における当該患者の表面の第2の三次元形状を示す第2の情報を算出する表面形状算出手段と、
前記患者形状取得手段により取得された第1の情報で示される前記第1の三次元形状、及び前記表面形状算出手段により算出された第2の情報で示される前記第2の三次元形状のうち一方の三次元形状上に複数の基準点を設け、当該複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の三次元形状の限定された範囲から算出し、当該複数の基準点と当該複数の対応点との位置関係に基づいて前記第1の情報と前記第2の情報とをマッチングすることで、前記第1の座標軸と前記第2の座標軸とを一致させる座標軸一致手段と、
前記表面画像取得手段により取得された画像から、前記座標軸一致手段により前記第1の座標軸に一致された前記第2の座標軸上における前記内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出手段と、
前記内視鏡光軸算出手段により算出された前記内視鏡の撮像方向である光軸を示す半直線と前記患者形状取得手段により取得された第1の情報に係る前記患者の内部を構成する面との交点を算出する交点算出手段と、
前記交点算出手段により算出された交点を示す情報を、前記患者形状取得手段により取得された前記患者の内部を構成する面を示す情報に重畳して出力する出力手段と、
を備える手術支援情報表示装置。
On the first coordinate axis, a first surface showing a surface constituting the inside of a patient into which an endoscope that is inserted into the patient and images the inside is inserted, and a first three-dimensional shape of the surface of the patient are shown. Patient shape acquisition means for acquiring the information of
Surface image acquisition means for acquiring an image of the surface of the patient imaged when the endoscope is inserted into the patient;
Surface shape calculating means for calculating second information indicating a second three-dimensional shape of the surface of the patient on a second coordinate axis from the image of the surface of the patient acquired by the surface image acquiring means;
Of the first three-dimensional shape indicated by the first information acquired by the patient shape acquisition means and the second three-dimensional shape indicated by the second information calculated by the surface shape calculation means A plurality of reference points are provided on one three-dimensional shape, and for each of the plurality of reference points, the corresponding point at the shortest distance from the reference point is calculated from the limited range of the other three-dimensional shape, A coordinate axis that matches the first coordinate axis and the second coordinate axis by matching the first information and the second information based on the positional relationship between the reference point and the corresponding points. Matching means;
From the image acquired by the surface image acquisition means, a half line indicating the optical axis that is the imaging direction of the endoscope on the second coordinate axis matched with the first coordinate axis by the coordinate axis matching means is calculated. Endoscope optical axis calculating means for
The inside of the patient according to the first information acquired by the patient shape acquisition unit and the half line indicating the optical axis that is the imaging direction of the endoscope calculated by the endoscope optical axis calculation unit is configured. An intersection calculation means for calculating an intersection with the surface;
Output means for superimposing and outputting the information indicating the intersection calculated by the intersection calculation means on the information indicating the surface constituting the inside of the patient acquired by the patient shape acquisition means;
An operation support information display device comprising:
前記交点算出手段は、前記患者の内部を構成する面をポリゴンデータにして、当該ポリゴンデータを構成する各面と前記内視鏡の撮像方向である光軸を示す半直線との交点を算出することを特徴とする請求項1〜3の何れか一項に記載の手術支援情報表示装置。   The intersection calculation means calculates the intersection between each surface forming the polygon data and a half line indicating the optical axis that is the imaging direction of the endoscope, using polygon data as a surface forming the interior of the patient. The surgery support information display device according to any one of claims 1 to 3, wherein 前記出力手段は、前記内視鏡により撮像された画像に前記交点に対応する箇所を示す情報を重畳させた画像を併せて出力することを特徴とする請求項1〜4の何れか一項に記載の手術支援情報表示装置。   5. The output device according to claim 1, wherein the output unit outputs an image obtained by superimposing information indicating a location corresponding to the intersection on an image captured by the endoscope. 6. The operation support information display device described. 前記座標軸一致手段は、第1の前記基準点に対応する算出済の前記対応点の位置と、当該第1の基準点とは異なる第2の前記基準点の位置とに基づいて、当該算出済の対応点を中心とする範囲を算出し、当該範囲を、前記第2の基準点から最短距離にある対応点を算出するための前記限定された範囲とする、ことを特徴とする請求項1〜5の何れか一項に記載の手術支援情報表示装置。   The coordinate axis matching means is configured to calculate the calculated reference point based on the calculated position of the corresponding point corresponding to the first reference point and the position of the second reference point different from the first reference point. 2. A range centering on the corresponding point is calculated, and the range is the limited range for calculating the corresponding point at the shortest distance from the second reference point. The surgery assistance information display apparatus as described in any one of -5. 前記限定された範囲は、前記算出済の対応点を中心とし、前記第2の基準点の位置と前記他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、前記第2の基準点と前記算出済の対応点との距離とを加算した値を半径とする範囲である、ことを特徴とする請求項6に記載の手術支援情報表示装置。   The limited range is a distance defined on the basis of the position of the second reference point and the shortest distance field indicating a predetermined neighboring space of the other three-dimensional shape with the calculated corresponding point as the center. The surgery support information display device according to claim 6, wherein a radius is a value obtained by adding a distance between the second reference point and the calculated corresponding point. 前記限定された範囲は、前記算出済の対応点を中心とし、前記第1の基準点と前記算出済の対応点との距離と、前記第2の基準点の位置と前記他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、前記第1の基準点と前記第2の基準点との距離とを加算した値を半径とする範囲である、ことを特徴とする請求項6に記載の手術支援情報表示装置。   The limited range is centered on the calculated corresponding point, the distance between the first reference point and the calculated corresponding point, the position of the second reference point, and the other three-dimensional shape. A radius defined by adding a distance defined based on a shortest distance field indicating a predetermined neighborhood space and a distance between the first reference point and the second reference point. The operation support information display device according to claim 6. 前記座標軸一致手段は、前記表面形状算出手段により算出された第2の情報で示される前記第2の三次元形状上に存在し、且つ前記患者形状取得手段により取得された第1の情報で示される前記第1の三次元形状上の基準点から最短距離にある対応点を、当該第2の三次元形状の限定された範囲から算出し、当該基準点と当該対応点との位置関係に基づいて前記第1の情報のみを変換することで、当該第1の情報と前記第2の情報とをマッチングする、ことを特徴とする請求項1〜8の何れか一項に記載の手術支援情報表示装置。   The coordinate axis matching means is present on the second three-dimensional shape indicated by the second information calculated by the surface shape calculating means, and indicated by the first information acquired by the patient shape acquiring means. The corresponding point at the shortest distance from the reference point on the first three-dimensional shape is calculated from the limited range of the second three-dimensional shape, and based on the positional relationship between the reference point and the corresponding point The surgery support information according to any one of claims 1 to 8, wherein the first information and the second information are matched by converting only the first information. Display device. 第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面と当該患者の表面の第1の三次元形状とを示す第1の情報を取得する患者形状取得ステップと、
前記患者に前記内視鏡が差し込まれるときに撮像された前記患者の表面の画像を取得する表面画像取得ステップと、
前記表面画像取得ステップにおいて取得された前記患者の表面の画像から、第2の座標軸上における当該患者の表面の第2の三次元形状を示す第2の情報を算出する表面形状算出ステップと、
前記患者形状取得ステップにおいて取得された第1の情報で示される前記第1の三次元形状、及び前記表面形状算出ステップにおいて算出された第2の情報で示される前記第2の三次元形状のうち一方の三次元形状上に複数の基準点を設け、当該複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の三次元形状の限定された範囲から算出し、当該複数の基準点と当該複数の対応点との位置関係に基づいて前記第1の情報と前記第2の情報とをマッチングすることで、前記第1の座標軸と前記第2の座標軸とを一致させる座標軸一致ステップと、
前記表面画像取得ステップにおいて取得された画像から、前記座標軸一致ステップにおいて前記第1の座標軸に一致された前記第2の座標軸上における前記内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出ステップと、
前記内視鏡光軸算出ステップにおいて算出された前記内視鏡の撮像方向である光軸を示す半直線と前記患者形状取得ステップにおいて取得された第1の情報に係る前記患者の内部を構成する面との交点を算出する交点算出ステップと、
前記交点算出ステップにおいて算出された交点を示す情報を、前記患者形状取得ステップにおいて取得された前記患者の内部を構成する面を示す情報に重畳して出力する出力ステップと、
を含む手術支援情報表示方法。
On the first coordinate axis, a first surface showing a surface constituting the inside of a patient into which an endoscope that is inserted into the patient and images the inside is inserted, and a first three-dimensional shape of the surface of the patient are shown. A patient shape acquisition step for acquiring the information of
A surface image acquisition step of acquiring an image of the surface of the patient imaged when the endoscope is inserted into the patient;
A surface shape calculating step of calculating second information indicating a second three-dimensional shape of the surface of the patient on a second coordinate axis from the image of the surface of the patient acquired in the surface image acquiring step;
Of the first three-dimensional shape indicated by the first information acquired in the patient shape acquisition step and the second three-dimensional shape indicated by the second information calculated in the surface shape calculation step A plurality of reference points are provided on one three-dimensional shape, and for each of the plurality of reference points, the corresponding point at the shortest distance from the reference point is calculated from the limited range of the other three-dimensional shape, A coordinate axis that matches the first coordinate axis and the second coordinate axis by matching the first information and the second information based on the positional relationship between the reference point and the corresponding points. A matching step,
From the image acquired in the surface image acquisition step, a half line indicating the optical axis that is the imaging direction of the endoscope on the second coordinate axis matched with the first coordinate axis in the coordinate axis matching step is calculated. An endoscope optical axis calculating step,
The inside of the patient according to the first information acquired in the patient shape acquisition step and the half line indicating the optical axis that is the imaging direction of the endoscope calculated in the endoscope optical axis calculation step is configured. An intersection calculation step for calculating an intersection with the surface;
An output step of superimposing and outputting information indicating the intersection calculated in the intersection calculation step on information indicating a surface constituting the inside of the patient acquired in the patient shape acquisition step;
Surgery support information display method including
第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面と当該患者の表面の第1の三次元形状とを示す第1の情報を取得する患者形状取得機能と、
前記患者に前記内視鏡が差し込まれるときに撮像された前記患者の表面の画像を取得する表面画像取得機能と、
前記表面画像取得機能により取得された前記患者の表面の画像から、第2の座標軸上における当該患者の表面の第2の三次元形状を示す第2の情報を算出する表面形状算出機能と、
前記患者形状取得機能により取得された第1の情報で示される前記第1の三次元形状、及び前記表面形状算出機能により算出された第2の情報で示される前記第2の三次元形状のうち一方の三次元形状上に複数の基準点を設け、当該複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の三次元形状の限定された範囲から算出し、当該複数の基準点と当該複数の対応点との位置関係に基づいて前記第1の情報と前記第2の情報とをマッチングすることで、前記第1の座標軸と前記第2の座標軸とを一致させる座標軸一致機能と、
前記表面画像取得機能により取得された画像から、前記座標軸一致機能により前記第1の座標軸に一致された前記第2の座標軸上における前記内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出機能と、
前記内視鏡光軸算出機能により算出された前記内視鏡の撮像方向である光軸を示す半直線と前記患者形状取得機能により取得された第1の情報に係る前記患者の内部を構成する面との交点を算出する交点算出機能と、
前記交点算出機能により算出された交点を示す情報を、前記患者形状取得機能により取得された前記患者の内部を構成する面を示す情報に重畳して出力する出力機能と、
をコンピュータに実行させる手術支援情報表示プログラム。
On the first coordinate axis, a first surface showing a surface constituting the inside of a patient into which an endoscope that is inserted into the patient and images the inside is inserted, and a first three-dimensional shape of the surface of the patient are shown. Patient shape acquisition function to acquire the information of,
A surface image acquisition function for acquiring an image of the surface of the patient imaged when the endoscope is inserted into the patient;
A surface shape calculation function for calculating second information indicating a second three-dimensional shape of the surface of the patient on a second coordinate axis from the image of the surface of the patient acquired by the surface image acquisition function;
Of the first three-dimensional shape indicated by the first information acquired by the patient shape acquisition function and the second three-dimensional shape indicated by the second information calculated by the surface shape calculation function A plurality of reference points are provided on one three-dimensional shape, and for each of the plurality of reference points, the corresponding point at the shortest distance from the reference point is calculated from the limited range of the other three-dimensional shape, A coordinate axis that matches the first coordinate axis and the second coordinate axis by matching the first information and the second information based on the positional relationship between the reference point and the corresponding points. Match function,
From the image acquired by the surface image acquisition function, a half line indicating the optical axis that is the imaging direction of the endoscope on the second coordinate axis matched with the first coordinate axis by the coordinate axis matching function is calculated. Endoscope optical axis calculation function,
The inside of the patient related to the first line acquired by the half line indicating the optical axis that is the imaging direction of the endoscope calculated by the endoscope optical axis calculating function and the patient shape acquiring function is configured. An intersection calculation function for calculating an intersection with a surface;
An output function for superimposing and outputting information indicating the intersection calculated by the intersection calculation function on information indicating a surface constituting the inside of the patient acquired by the patient shape acquisition function;
A surgery support information display program for causing a computer to execute.
JP2008074003A 2007-03-20 2008-03-21 Surgery support information display device, surgery support information display method, and surgery support information display program Expired - Fee Related JP5283157B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008074003A JP5283157B2 (en) 2007-03-20 2008-03-21 Surgery support information display device, surgery support information display method, and surgery support information display program

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2007073557 2007-03-20
JP2007073557 2007-03-20
JP2007079866 2007-03-26
JP2007079866 2007-03-26
JP2008074003A JP5283157B2 (en) 2007-03-20 2008-03-21 Surgery support information display device, surgery support information display method, and surgery support information display program

Publications (2)

Publication Number Publication Date
JP2008264520A true JP2008264520A (en) 2008-11-06
JP5283157B2 JP5283157B2 (en) 2013-09-04

Family

ID=40044840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008074003A Expired - Fee Related JP5283157B2 (en) 2007-03-20 2008-03-21 Surgery support information display device, surgery support information display method, and surgery support information display program

Country Status (1)

Country Link
JP (1) JP5283157B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009254805A (en) * 2008-03-18 2009-11-05 Hamamatsu Univ School Of Medicine Surgery supporting system
WO2010041742A1 (en) 2008-10-10 2010-04-15 独立行政法人理化学研究所 Method for introducing dota
JP2011031045A (en) * 2009-08-03 2011-02-17 Medison Co Ltd System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image
JP2013501290A (en) * 2009-08-07 2013-01-10 ユーシーエル ビジネス ピーエルシー Apparatus and method for aligning two medical images
WO2013062348A1 (en) * 2011-10-26 2013-05-02 주식회사 고영테크놀러지 Registration method of surgical operation images
JP2016502412A (en) * 2012-10-01 2016-01-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Three-dimensional polyline registration using shape constraints
KR102056436B1 (en) * 2017-04-14 2019-12-16 (주)칼리온 Medical navigation system and the method thereof
JP2020522369A (en) * 2017-06-04 2020-07-30 ブレイン ナビ バイオテクノロジー カンパニー リミテッド Method and system for determining one or more points on a surgical path
CN111723837A (en) * 2019-03-20 2020-09-29 斯瑞克欧洲控股I公司 Techniques for processing patient-specific image data for computer-assisted surgical navigation

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102084256B1 (en) * 2018-03-26 2020-03-03 (주)레벨소프트 Image registration apparatus and method using multiple candidate points
KR102233585B1 (en) * 2020-02-26 2021-03-30 (주)레벨소프트 Image registration apparatus and method using multiple candidate points

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09511430A (en) * 1994-09-01 1997-11-18 マサチューセッツ インスティチュート オブ テクノロジー Three-dimensional data set registration system and registration method
JP2001204738A (en) * 2000-01-26 2001-07-31 Olympus Optical Co Ltd Navigation system for medical operation
JP2002263053A (en) * 2001-03-06 2002-09-17 Olympus Optical Co Ltd Medical image display device and method
JP2005046200A (en) * 2003-07-29 2005-02-24 Olympus Corp Endoscopic operation system
JP2006198032A (en) * 2005-01-18 2006-08-03 Olympus Corp Surgery support system
JP5137033B2 (en) * 2007-01-31 2013-02-06 国立大学法人浜松医科大学 Surgery support information display device, surgery support information display method, and surgery support information display program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09511430A (en) * 1994-09-01 1997-11-18 マサチューセッツ インスティチュート オブ テクノロジー Three-dimensional data set registration system and registration method
JP2001204738A (en) * 2000-01-26 2001-07-31 Olympus Optical Co Ltd Navigation system for medical operation
JP2002263053A (en) * 2001-03-06 2002-09-17 Olympus Optical Co Ltd Medical image display device and method
JP2005046200A (en) * 2003-07-29 2005-02-24 Olympus Corp Endoscopic operation system
JP2006198032A (en) * 2005-01-18 2006-08-03 Olympus Corp Surgery support system
JP5137033B2 (en) * 2007-01-31 2013-02-06 国立大学法人浜松医科大学 Surgery support information display device, surgery support information display method, and surgery support information display program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009254805A (en) * 2008-03-18 2009-11-05 Hamamatsu Univ School Of Medicine Surgery supporting system
WO2010041742A1 (en) 2008-10-10 2010-04-15 独立行政法人理化学研究所 Method for introducing dota
JP2011031045A (en) * 2009-08-03 2011-02-17 Medison Co Ltd System and method for providing two-dimensional ct image corresponding to two-dimensional ultrasonic image
US9186062B2 (en) 2009-08-03 2015-11-17 Samsung Medison Co., Ltd. System and method for providing 2-dimensional computerized- tomography image corresponding to 2-dimensional ultrasound image
JP2013501290A (en) * 2009-08-07 2013-01-10 ユーシーエル ビジネス ピーエルシー Apparatus and method for aligning two medical images
US9105092B2 (en) 2011-10-26 2015-08-11 Koh Young Technology Inc. Registration method of images for surgery
KR101307944B1 (en) * 2011-10-26 2013-09-12 주식회사 고영테크놀러지 Registration method of images for surgery
WO2013062348A1 (en) * 2011-10-26 2013-05-02 주식회사 고영테크놀러지 Registration method of surgical operation images
JP2016502412A (en) * 2012-10-01 2016-01-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Three-dimensional polyline registration using shape constraints
KR102056436B1 (en) * 2017-04-14 2019-12-16 (주)칼리온 Medical navigation system and the method thereof
JP2020522369A (en) * 2017-06-04 2020-07-30 ブレイン ナビ バイオテクノロジー カンパニー リミテッド Method and system for determining one or more points on a surgical path
JP7095079B2 (en) 2017-06-04 2022-07-04 ブレイン ナビ バイオテクノロジー カンパニー リミテッド A system that determines one or more points on the surgical route
CN111723837A (en) * 2019-03-20 2020-09-29 斯瑞克欧洲控股I公司 Techniques for processing patient-specific image data for computer-assisted surgical navigation
CN111723837B (en) * 2019-03-20 2024-03-12 斯瑞克欧洲控股I公司 Techniques for processing image data of a particular patient for computer-assisted surgical navigation

Also Published As

Publication number Publication date
JP5283157B2 (en) 2013-09-04

Similar Documents

Publication Publication Date Title
JP5283157B2 (en) Surgery support information display device, surgery support information display method, and surgery support information display program
JP5137033B2 (en) Surgery support information display device, surgery support information display method, and surgery support information display program
US20210285759A1 (en) Laser enhanced reconstruction of 3d surface
JP5918548B2 (en) Endoscopic image diagnosis support apparatus, operation method thereof, and endoscopic image diagnosis support program
US8767057B2 (en) Image processing device, image processing method, and program
JP6463038B2 (en) Image alignment apparatus, method and program
JP5561458B2 (en) Surgery support system
US20130345509A1 (en) System and method for endoscopic measurement and mapping of internal organs, tumors and other objects
JP4630564B2 (en) Surgery support apparatus, method and program
EP2573735A1 (en) Endoscopic image processing device, method and program
JP5219129B2 (en) Shape information processing method, shape information processing apparatus, and shape information processing program
WO2015059932A1 (en) Image processing device, method and program
JP2013519417A5 (en)
Furukawa et al. 2-DOF auto-calibration for a 3D endoscope system based on active stereo
US9345394B2 (en) Medical apparatus
JP5554028B2 (en) Medical image processing apparatus, medical image processing program, and X-ray CT apparatus
WO2017170488A1 (en) Optical axis position measuring system, optical axis position measuring method, optical axis position measuring program, and optical axis position measuring device
JP2017185212A (en) Optical axis position measurement system, optical axis position measurement method, optical axis position measurement program, optical axis position measurement device
JP2007236630A (en) Medical image processor and medical image processing method
KR20140124456A (en) Operating medical navigation system and method for heart surgery with registration of oct image and 3-dimensional image
JP5560424B2 (en) Method, apparatus, and system for measuring a three-dimensional relative relationship between an optical axis position of an object having an optical axis from the tip of the long axis portion and means for defining the position and orientation of the object
Bergmeier et al. Panorama imaging for image-to-physical registration of narrow drill holes inside spongy bones
Ciucci et al. The NEAR project: Active endoscopes in the operating room

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130523

R150 Certificate of patent or registration of utility model

Ref document number: 5283157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees