JP2008262555A - Shape information processing method, device, and program - Google Patents

Shape information processing method, device, and program Download PDF

Info

Publication number
JP2008262555A
JP2008262555A JP2008073890A JP2008073890A JP2008262555A JP 2008262555 A JP2008262555 A JP 2008262555A JP 2008073890 A JP2008073890 A JP 2008073890A JP 2008073890 A JP2008073890 A JP 2008073890A JP 2008262555 A JP2008262555 A JP 2008262555A
Authority
JP
Japan
Prior art keywords
shape
information
point
reference point
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008073890A
Other languages
Japanese (ja)
Other versions
JP5219129B2 (en
Inventor
Baigalmaa Tsagaan
バイガルマ ツァガーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Hamamatsu University School of Medicine NUC
Original Assignee
Shizuoka University NUC
Hamamatsu University School of Medicine NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC, Hamamatsu University School of Medicine NUC filed Critical Shizuoka University NUC
Priority to JP2008073890A priority Critical patent/JP5219129B2/en
Publication of JP2008262555A publication Critical patent/JP2008262555A/en
Application granted granted Critical
Publication of JP5219129B2 publication Critical patent/JP5219129B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a calculation time required for positioning while maintaining precision and efficiency of the positioning between shapes shown by predetermined information. <P>SOLUTION: In matching between a first three-dimensional shape shown by first information and a second three-dimensional shape shown by second information, input of the first information and the second information is received. Then, a plurality of reference points are set on the first three-dimensional shape. As to each of a plurality of set reference points, a corresponding point at the shortest distance from the reference point is found from a limited area on the second three-dimensional shape. When the first information is converted based on positional relationships between a plurality of set reference points and the found corresponding points, matching between the first and second shapes is carried out. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、所定の情報で示される形状同士を位置合わせする形状情報処理方法、形状情報処理装置及び形状情報処理プログラムに関する。   The present invention relates to a shape information processing method, a shape information processing apparatus, and a shape information processing program for aligning shapes indicated by predetermined information.

従来から、複数の形状を位置合わせするための手法が知られている。例えば、ある装置が、物体を複数の視点から部分的に計測して、物体各部の三次元形状を示す情報を複数取得し、それら三次元形状を位置合わせすることで、物体全体を表す三次元形状を生成する手法がある。このような手法は、近年の三次元計測装置の普及もあって、コンピュータグラフィクス、CAD(Computer-Aided Design、コンピュータ支援設計)、コンピュータビジョンなど、様々な研究開発分野・産業分野で利用されている。   Conventionally, a technique for aligning a plurality of shapes is known. For example, a certain device measures a part of an object from a plurality of viewpoints, acquires a plurality of pieces of information indicating the three-dimensional shape of each part of the object, and aligns the three-dimensional shapes to represent a three-dimensional representation of the entire object. There are techniques for generating shapes. Such a method is used in various research and development fields and industrial fields such as computer graphics, CAD (Computer-Aided Design), and computer vision due to the recent spread of three-dimensional measuring devices. .

このような位置合わせを行う代表的な手法として、反復最近傍点アルゴリズム(Iterative Closest Point Algorithm、以下「ICPアルゴリズム」という)がある。このICPアルゴリズムでは、まず、二つの形状がある程度重なり合っているという初期状態が仮定される。続いて、一方の形状の複数の基準点のそれぞれについて、当該基準点と最短距離にある対応点が他方の形状から抽出される。続いて、複数の基準点と複数の対応点との仮の対応付けが行われ、その仮の対応付けに基づいて座標変換パラメータが推定される。このような、仮の対応付け、及び座標変換パラメータの推定を反復的に行うことにより、二つの形状が位置合わせされる。   As a typical method for performing such alignment, there is an iterative nearest point algorithm (hereinafter referred to as “ICP algorithm”). In this ICP algorithm, first, an initial state in which two shapes overlap to some extent is assumed. Subsequently, for each of a plurality of reference points of one shape, a corresponding point at the shortest distance from the reference point is extracted from the other shape. Subsequently, provisional association between a plurality of reference points and a plurality of corresponding points is performed, and coordinate transformation parameters are estimated based on the provisional association. By repetitively performing such provisional association and estimation of coordinate transformation parameters, the two shapes are aligned.

このように、ICPアルゴリズムは、基準点から最短距離にある対応点を算出して対応付けを行うので、汎用性が非常に高い。また、このICPアルゴリズムによれば、剛体運動を算出する側の形状が他方の形状の一部である場合に、位置合わせを精度良く行うことが可能である。このICPアルゴリズムを用いる手法は、例えば下記特許文献1〜4に開示されている。
特開平06−044361号公報 特開2000−251092号公報 特開2002−175521号公報 特開2003−162549号公報
As described above, the ICP algorithm is highly versatile because it calculates and associates the corresponding point at the shortest distance from the reference point. Further, according to this ICP algorithm, when the shape on the side for calculating the rigid body motion is a part of the other shape, the alignment can be performed with high accuracy. Techniques using this ICP algorithm are disclosed in, for example, the following Patent Documents 1 to 4.
Japanese Patent Application Laid-Open No. 06-044361 JP 2000-251092 A JP 2002-175521 A JP 2003-162549 A

しかしながら、ICPアルゴリズムでは、一つの対応点を抽出するために、対応点の候補となる点(以下「候補点」という)すべてについてユークリッド距離を計算する必要がある。しかも、このような計算は、抽出すべきすべての対応点について行われる必要があり、且つ座標変換パラメータの推定は反復的に実行される。従って、点対の数が多くなるほど、ICPアルゴリズムにおける計算量が膨大になり、形状の変換のための計算時間が長くなってしまう。   However, in the ICP algorithm, in order to extract one corresponding point, it is necessary to calculate the Euclidean distance for all points that are candidates for corresponding points (hereinafter referred to as “candidate points”). Moreover, such a calculation needs to be performed for all corresponding points to be extracted, and estimation of coordinate transformation parameters is performed iteratively. Therefore, as the number of point pairs increases, the amount of calculation in the ICP algorithm becomes enormous and the calculation time for shape conversion becomes longer.

計算時間を短縮する手法として、基準点の個数を少なくするものや、位置合わせを行う形状を予め人為的に近い位置に配置した上で自動処理を行うものが考えられている。しかし、基準点の個数を少なくすると位置合わせの精度が低下してしまう。また、人為的に自動処理を補助することは、煩雑であり効率的でない。   As a method for shortening the calculation time, there are considered a method for reducing the number of reference points, and a method for performing automatic processing after a shape to be aligned is placed in an artificially close position in advance. However, if the number of reference points is reduced, the alignment accuracy is lowered. Further, artificially assisting automatic processing is complicated and inefficient.

本発明は、上記課題を解決するためになされたものであり、所定の情報で示される形状同士を位置合わせする際の精度及び効率を維持しつつ、その位置合わせに要する計算時間を短縮することが可能な形状情報処理方法、形状情報処理装置及び形状情報処理プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problem, and reduces the calculation time required for the alignment while maintaining the accuracy and efficiency in aligning the shapes indicated by the predetermined information. An object is to provide a shape information processing method, a shape information processing apparatus, and a shape information processing program.

本発明に係る形状情報処理方法は、第1の形状を示す第1の情報、及び第2の形状を示す第2の情報の入力を受け付ける受付ステップと、受付ステップにおいて受け付けられた第1の情報で示される第1の形状、及び受付ステップにおいて受け付けられた第2の情報で示される第2の形状のうち一方の形状上に複数の基準点を設ける設定ステップと、設定ステップにおいて設定された複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の形状の限定された範囲から算出する算出ステップと、設定ステップにおいて設定された複数の基準点と、算出ステップにおいて算出された複数の対応点との位置関係に基づいて、第1の情報又は第2の情報を変換することで、第1の形状と第2の形状とを位置合わせする位置合わせステップと、を含む。   The shape information processing method according to the present invention includes a receiving step for receiving input of first information indicating a first shape and second information indicating a second shape, and first information received in the receiving step. A setting step in which a plurality of reference points are provided on one of the first shape indicated by 2 and the second shape indicated by the second information received in the receiving step, and a plurality of values set in the setting step. For each of the reference points, the calculation step for calculating the corresponding point at the shortest distance from the reference point from the limited range of the other shape, the plurality of reference points set in the setting step, and the calculation step Position alignment for aligning the first shape and the second shape by converting the first information or the second information based on the positional relationship with the plurality of corresponding points. Including the step to, the.

また、本発明に係る形状情報処理装置は、第1の形状を示す第1の情報、及び第2の形状を示す第2の情報の入力を受け付ける受付手段と、受付手段により受け付けられた第1の情報で示される第1の形状、及び受付手段により受け付けられた第2の情報で示される第2の形状のうち一方の形状上に複数の基準点を設ける設定手段と、設定手段により設定された複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の形状の限定された範囲から算出する算出手段と、設定手段により設定された複数の基準点と、算出手段により算出された複数の対応点との位置関係に基づいて、第1の情報又は第2の情報を変換することで、第1の形状と第2の形状とを位置合わせする位置合わせ手段と、を備える。   The shape information processing apparatus according to the present invention includes a receiving unit that receives input of first information indicating a first shape and second information indicating a second shape, and a first information received by the receiving unit. Setting means for providing a plurality of reference points on one of the first shape indicated by the information and the second shape indicated by the second information received by the accepting means, and the setting means For each of the plurality of reference points, the calculation means for calculating the corresponding point at the shortest distance from the reference point from the limited range of the other shape, the plurality of reference points set by the setting means, and the calculation means Alignment means for aligning the first shape and the second shape by converting the first information or the second information based on the calculated positional relationship with the plurality of corresponding points; Prepare.

また、本発明に係る形状情報処理プログラムは、第1の形状を示す第1の情報、及び第2の形状を示す第2の情報の入力を受け付ける受付機能と、受付機能により受け付けられた第1の情報で示される第1の形状、及び受付機能により受け付けられた第2の情報で示される第2の形状のうち一方の形状上に複数の基準点を設ける設定機能と、設定機能により設定された複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の形状の限定された範囲から算出する算出機能と、設定機能により設定された複数の基準点と、算出機能により算出された複数の対応点との位置関係に基づいて、第1の情報又は第2の情報を変換することで、第1の形状と第2の形状とを位置合わせする位置合わせ機能と、をコンピュータに実行させる。   The shape information processing program according to the present invention includes a reception function for receiving input of first information indicating the first shape and second information indicating the second shape, and the first information received by the reception function. A setting function for providing a plurality of reference points on one of the first shape indicated by the information and the second shape indicated by the second information received by the acceptance function, and the setting function. For each of the plurality of reference points, a calculation function for calculating a corresponding point at the shortest distance from the reference point from a limited range of the other shape, a plurality of reference points set by the setting function, and a calculation function An alignment function for aligning the first shape and the second shape by converting the first information or the second information based on the calculated positional relationship with the plurality of corresponding points; Real to computer Make.

このような形状情報処理方法、形状情報処理装置及び形状情報処理プログラムによれば、まず、第1の情報で示される第1の形状、及び第2の情報で示される第2の形状のうち一方の形状上に複数の基準点が設けられる。続いて、設定された複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点が、他方の形状の限定された範囲から算出される。そして、複数の基準点と複数の対応点との位置関係に基づいて、第1の情報又は第2の情報が変換されることにより、第1の形状と第2の形状とが位置合わせされる。これにより、第1の形状と第2の形状とを位置合わせする際に、対応点を算出する範囲が限定されるので、対応点を他方の形状全体から算出する場合と比較して、対応点の算出に要する時間が短縮される。なお、この際に、基準点の個数を抑えたり人為的操作を加えたりする必要はない。そのため、所定の情報で示される形状同士を位置合わせする際の精度及び効率を維持しつつ、その位置合わせに要する計算時間を短縮することができる。   According to such a shape information processing method, shape information processing apparatus, and shape information processing program, first, one of the first shape indicated by the first information and the second shape indicated by the second information A plurality of reference points are provided on the shape. Subsequently, for each of the set reference points, the corresponding point at the shortest distance from the reference point is calculated from the limited range of the other shape. Then, the first shape and the second shape are aligned by converting the first information or the second information based on the positional relationship between the plurality of reference points and the plurality of corresponding points. . Thereby, when aligning the first shape and the second shape, the range for calculating the corresponding point is limited, so that the corresponding point is compared with the case where the corresponding point is calculated from the entire other shape. The time required to calculate is reduced. At this time, it is not necessary to reduce the number of reference points or add an artificial operation. Therefore, it is possible to reduce the calculation time required for the alignment while maintaining the accuracy and efficiency in aligning the shapes indicated by the predetermined information.

本発明の形状情報処理方法では、算出ステップは、第1の基準点に対応する算出済の対応点の位置と、当該第1の基準点とは異なる第2の基準点の位置とに基づいて、当該算出済の対応点を中心とする範囲を算出し、当該範囲を、第2の基準点から最短距離にある対応点を算出するための限定された範囲とすることが好ましい。このような構成によれば、既知の情報(既知の基準点の位置、及び既知の対応点の位置)に基づいて、未知の対応点(第2の基準点から最短距離にある対応点)を算出するための限定された範囲が設定されるので、より早く未知の対応点を算出することができる。   In the shape information processing method of the present invention, the calculation step is based on the position of the calculated corresponding point corresponding to the first reference point and the position of the second reference point different from the first reference point. Preferably, a range around the calculated corresponding point is calculated, and the range is set as a limited range for calculating the corresponding point at the shortest distance from the second reference point. According to such a configuration, based on the known information (the position of the known reference point and the position of the known corresponding point), the unknown corresponding point (the corresponding point at the shortest distance from the second reference point) is determined. Since a limited range for calculation is set, an unknown corresponding point can be calculated earlier.

本発明の形状情報処理方法では、限定された範囲は、算出済の対応点を中心とし、第2の基準点の位置と他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、第2の基準点と算出済の対応点との距離とを加算した値を半径とする範囲であることが好ましい。このような構成によれば、算出済の対応点の位置と、第2の基準点の位置と他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、第2の基準点と算出済の対応点との距離とに基づいて、未知の対応点を算出するための限定された範囲が設定される。そのため、より早く未知の対応点を算出することができる。   In the shape information processing method of the present invention, the limited range is based on the calculated corresponding point and based on the position of the second reference point and the shortest distance field indicating the predetermined neighboring space of the other three-dimensional shape. The radius is preferably a value obtained by adding the distance defined in the above and the distance between the second reference point and the calculated corresponding point. According to such a configuration, the distance defined based on the position of the calculated corresponding point, the position of the second reference point, and the shortest distance field indicating the predetermined neighboring space of the other three-dimensional shape, A limited range for calculating an unknown corresponding point is set based on the distance between the second reference point and the calculated corresponding point. Therefore, an unknown corresponding point can be calculated earlier.

本発明の形状情報処理方法では、限定された範囲は、算出済の対応点を中心とし、第1の基準点と算出済の対応点との距離と、第2の基準点の位置と他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、第1の基準点と第2の基準点との距離とを加算した値を半径とする範囲であることが好ましい。このような構成によれば、算出済の対応点の位置と、第1の基準点と算出済の対応点との距離と、第2の基準点の位置と他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、第1の基準点と第2の基準点との距離とに基づいて、未知の対応点を算出するための限定された範囲が設定される。そのため、より早く未知の対応点を算出することができる。   In the shape information processing method of the present invention, the limited range is centered on the calculated corresponding point, the distance between the first reference point and the calculated corresponding point, the position of the second reference point, and the other The radius is a value obtained by adding a distance defined based on the shortest distance field indicating a predetermined neighborhood space of the three-dimensional shape and the distance between the first reference point and the second reference point. Is preferred. According to such a configuration, the position of the calculated corresponding point, the distance between the first reference point and the calculated corresponding point, the position of the second reference point, and the predetermined neighborhood of the other three-dimensional shape A limited range for calculating an unknown corresponding point is set based on the distance defined based on the shortest distance field indicating the space and the distance between the first reference point and the second reference point. Is done. Therefore, an unknown corresponding point can be calculated earlier.

本発明では、基準点から最短距離にある対応点が、他方の形状の限定された範囲から算出される。この際、基準点の個数を抑えたり人為的操作を加えたりする必要はない。従って、本発明によれば、所定の情報で示される形状同士を位置合わせする際の精度及び効率を維持しつつ、その位置合わせに要する計算時間を短縮することができる。   In the present invention, the corresponding point at the shortest distance from the reference point is calculated from the limited range of the other shape. At this time, it is not necessary to reduce the number of reference points or add an artificial operation. Therefore, according to the present invention, it is possible to reduce the calculation time required for the alignment while maintaining the accuracy and efficiency in aligning the shapes indicated by the predetermined information.

以下、図面とともに本発明に係る形状情報処理方法、形状情報処理装置及び形状情報処理プログラムの好適な実施形態について詳細に説明する。本実施形態では、これら形状情報処理方法、形状情報処理装置及び形状情報処理プログラムを、手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラムに適用する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明のものと必ずしも一致していない。   Hereinafter, preferred embodiments of a shape information processing method, a shape information processing apparatus, and a shape information processing program according to the present invention will be described in detail with reference to the drawings. In the present embodiment, the shape information processing method, the shape information processing apparatus, and the shape information processing program are applied to a surgery support information display device, a surgery support information display method, and a surgery support information display program. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted. Further, the dimensional ratios in the drawings do not necessarily match those described.

図1は、本発明に係る手術支援情報表示装置1の実施形態を概略的に示す構成図である。手術支援情報表示装置1は、患者60に対する手術の際に、内視鏡により撮像された画像に関する情報を術者等に提供する装置である。本実施形態に係る手術支援情報表示装置1が用いられる手術は、例えば、耳鼻咽頭科における副鼻腔の内視鏡手術等のように、内視鏡による撮像が行われるものを対象とする。   FIG. 1 is a configuration diagram schematically showing an embodiment of a surgery support information display device 1 according to the present invention. The surgery support information display device 1 is a device that provides information about an image captured by an endoscope to an operator or the like during surgery on a patient 60. Surgery in which the surgery support information display device 1 according to the present embodiment is used is intended for an operation in which imaging is performed by an endoscope, such as endoscopic surgery of a sinus in an otolaryngology department.

図1に示すように、手術支援情報表示装置1は、内視鏡11と、標識球12と、撮像装置20と、CT装置30と、PC(Personal Computer)40と、モニタ50とを含んで構成されている。   As shown in FIG. 1, the surgery support information display device 1 includes an endoscope 11, a marker sphere 12, an imaging device 20, a CT device 30, a PC (Personal Computer) 40, and a monitor 50. It is configured.

内視鏡11は、術者により操作され、患者60の内部に挿入されて当該内部を撮像する装置である。内視鏡11は、患者の生体内の挿入できるように細長い形状をしており、その先端部には患者60の内部を撮像するための機構が設けられている。その機構としては、例えば、被撮像部に向くように位置決めして設けられたレンズ及び、レンズの決像位置に設けられたCCDイメージセンサ(Charge Coupled Device Image Sensor)等の撮像素子である。上記の機構の位置決めのされ方によって、内視鏡11の撮像方向Aが決まる。通常は、レンズの光軸方向が、内視鏡11の撮像方向Aとなる。内視鏡11により撮像された画像の情報は、ケーブルにより内視鏡11と接続されたPC40に出力される。なお、上記の内視鏡11としては、特殊な構成を有している必要はなく、従来から用いられている内視鏡を用いることができる。   The endoscope 11 is a device that is operated by an operator and is inserted into a patient 60 to image the inside. The endoscope 11 has an elongated shape so that it can be inserted into a patient's living body, and a mechanism for imaging the inside of the patient 60 is provided at the distal end portion thereof. The mechanism is, for example, an imaging element such as a lens that is positioned so as to face the imaged portion and a CCD image sensor (Charge Coupled Device Image Sensor) that is provided at the determined position of the lens. The imaging direction A of the endoscope 11 is determined depending on how the mechanism is positioned. Usually, the optical axis direction of the lens is the imaging direction A of the endoscope 11. Information on the image captured by the endoscope 11 is output to the PC 40 connected to the endoscope 11 by a cable. The endoscope 11 does not need to have a special configuration, and a conventionally used endoscope can be used.

標識球12は、内視鏡11の撮像方向に対して予め定められた相対的な位置関係の位置に固定されて設けられるマーカである。標識球12は、撮像装置20により撮像されて、撮像された画像から三次元座標を求められる。具体的には、標識球12は、複数内視鏡11に対して棒状の部材13を介して固定される、それぞれ大きさが異なる球状の部材である。大きさが異なることとしているのは、撮像装置20により撮像された画像から、それぞれを区別して検出するためである。   The marker sphere 12 is a marker that is fixedly provided at a predetermined relative positional position with respect to the imaging direction of the endoscope 11. The marker sphere 12 is imaged by the imaging device 20, and the three-dimensional coordinates are obtained from the captured image. Specifically, the marker sphere 12 is a spherical member having a different size, which is fixed to the plurality of endoscopes 11 via a bar-shaped member 13. The reason why the sizes are different is to distinguish and detect each of the images captured by the imaging device 20.

標識球12が内視鏡11に設けられる位置は、患者60に挿入される部分から更に後方の、患者60に挿入されない位置である。また、標識球12と内視鏡11の撮像方向Aとの位置関係が一定となるように、内視鏡11における、患者60の内部に挿入される部分から標識球12が設けられる部分までは、硬質の材質で形成されており屈曲できないようになっている。但し、内視鏡11の撮像方向と標識球12との位置関係が把握できればよいので、例えば、内視鏡11の先端部のみが決められた方向のみに動くような構成となっていてもよい。   The position at which the marker ball 12 is provided in the endoscope 11 is a position that is not further inserted into the patient 60, further rearward from the portion inserted into the patient 60. Further, from the portion inserted into the patient 60 to the portion where the marker ball 12 is provided in the endoscope 11 so that the positional relationship between the marker ball 12 and the imaging direction A of the endoscope 11 is constant. It is made of a hard material and cannot be bent. However, since it is only necessary to know the positional relationship between the imaging direction of the endoscope 11 and the marker sphere 12, for example, only the distal end portion of the endoscope 11 may move in a predetermined direction. .

なお、内視鏡11に設けられるマーカは、内視鏡11の撮像方向に対して定められた相対的な位置関係の位置にあり、撮像装置20により撮像された画像から三次元座標を求められるものであればよいので、必ずしも、本実施形態の標識球12のような球状のものでなくてもよい。また、内視鏡11自体の形状が、容易に三次元座標を求められるものであれば、内視鏡11自体の形状がマーカとなるので、必ずしも標識球12を設ける必要はない。   Note that the marker provided in the endoscope 11 is in a relative positional relationship determined with respect to the imaging direction of the endoscope 11, and three-dimensional coordinates can be obtained from the image captured by the imaging device 20. Since it may be a thing, it does not necessarily need to be a spherical thing like the marker sphere 12 of this embodiment. Further, if the shape of the endoscope 11 itself can easily obtain a three-dimensional coordinate, the shape of the endoscope 11 itself becomes a marker, and therefore the marker sphere 12 is not necessarily provided.

撮像装置20は、患者60に内視鏡11が差し込まれるときに、患者60の表面及び標識球12を撮像する。図1に示すように、患者60の鼻の穴から内視鏡11を挿入して、内視鏡11により患者60の頭部を撮像する場合には、患者60の顔面と標識球12とが撮像できるような位置に撮像装置20が設けられる。撮像装置20としては具体的には、例えば、CCDカメラが用いられる。撮像装置20は、PC40と接続されており、撮像した画像の情報をPC40に送信する。   The imaging device 20 images the surface of the patient 60 and the marker sphere 12 when the endoscope 11 is inserted into the patient 60. As shown in FIG. 1, when the endoscope 11 is inserted from the nostril of the patient 60 and the head of the patient 60 is imaged by the endoscope 11, the face of the patient 60 and the marker ball 12 are The imaging device 20 is provided at a position where imaging can be performed. Specifically, for example, a CCD camera is used as the imaging device 20. The imaging device 20 is connected to the PC 40 and transmits information of the captured image to the PC 40.

撮像装置20により撮像された画像は、撮像されたものの三次元座標(三次元位置情報)を算出するために用いられる。そのために必要な構成も併せて撮像装置20に備えておく必要がある。画像から撮像されたものの三次元座標を算出する方法としては光学的な方法を用いるものがあり、例えば、特開2003−254732号公報に記載された方法を用いることができる。この方法を用いる場合は、そのために必要な、撮像装置20により撮像される範囲にキセノンライトから発せられる自然太陽光に似た白色光に似た格子模様を投影する装置を更に設けておく。   The image picked up by the image pickup device 20 is used to calculate the three-dimensional coordinates (three-dimensional position information) of the picked-up image. Therefore, it is necessary to provide the imaging apparatus 20 with a configuration necessary for this purpose. As a method for calculating a three-dimensional coordinate of an image captured from an image, there is a method using an optical method, and for example, a method described in Japanese Patent Laid-Open No. 2003-254732 can be used. When this method is used, a device for projecting a lattice pattern similar to white light similar to natural sunlight emitted from the xenon light is further provided in a range imaged by the imaging device 20 necessary for that purpose.

なお、特開2003−254732号公報に記載された方法によれば、1秒の計測時間で、90±10cmの距離から撮像が可能となる。また、分解能は0.1〜0.6mmである。即ち、1秒で三次元位置情報を持った解像度の高いカラー画像が取得できる。また、曇りの日中(屋外)の約28%の照度の白色光であり、レーザ等を使うことなく安全に三次元位置情報を取得できる。本方法により、患者60の顔面を撮像して、情報処理されて三次元位置情報を持った解像度の高いカラー画像とした例を図2に示す。   According to the method described in Japanese Patent Laid-Open No. 2003-254732, imaging can be performed from a distance of 90 ± 10 cm in a measurement time of 1 second. The resolution is 0.1 to 0.6 mm. That is, a high-resolution color image having three-dimensional position information can be acquired in one second. Further, it is white light with an illuminance of about 28% during a cloudy daytime (outdoors), and three-dimensional position information can be acquired safely without using a laser or the like. FIG. 2 shows an example in which the face of the patient 60 is imaged by this method to obtain a high-resolution color image that has been processed and has three-dimensional position information.

CT装置30は、内視鏡11が挿入される患者60の内部を構成する面と患者60の表面の第1の三次元形状とを示す第1の情報を取得する。内視鏡11が挿入される患者60を構成する面は、例えば、患者60の副鼻腔に内視鏡11が挿入される場合、副鼻腔を構成する面である。また、患者60の表面は、上記の場合、患者60の顔面である。ここで、CT装置30により取得される三次元形状を示す第1の情報は、例えば予めCT装置30に設定されている所定の座標軸に対する座標毎に三次元形状を示す情報を保持することによって構成されている。この座標軸は、第1の座標軸である。即ち、第1の情報は、第1の座標軸上における情報である。なお、三次元形状を示す第1の情報は、例えば三次元配列で構成される。この場合、三次元配列の各要素は、第1の情報で示される三次元形状を構成する各点の座標に対応する。   The CT apparatus 30 acquires first information indicating a surface constituting the inside of the patient 60 into which the endoscope 11 is inserted and a first three-dimensional shape of the surface of the patient 60. The surface constituting the patient 60 into which the endoscope 11 is inserted is, for example, the surface constituting the sinus when the endoscope 11 is inserted into the sinus cavity of the patient 60. In addition, the surface of the patient 60 is the face of the patient 60 in the above case. Here, the first information indicating the three-dimensional shape acquired by the CT apparatus 30 is configured by, for example, holding information indicating the three-dimensional shape for each coordinate with respect to a predetermined coordinate axis set in the CT apparatus 30 in advance. Has been. This coordinate axis is the first coordinate axis. That is, the first information is information on the first coordinate axis. In addition, the 1st information which shows a three-dimensional shape is comprised by the three-dimensional arrangement | sequence, for example. In this case, each element of the three-dimensional array corresponds to the coordinates of each point constituting the three-dimensional shape indicated by the first information.

CT装置30は、放射線等を利用して物体を走査し、コンピュータを用いて処理された内部構造を等間隔(例えば、1mm)毎に輪切りにしたような画像(CT画像)を、患者60の三次元形状を示す情報として構成するものであり、既存のCT装置を用いることができる。CT画像の例を図3に示す。CT装置30はPC40と接続されており、取得した患者60の三次元形状を示す情報を、PC40に送信する。なお、CT装置30は、撮像装置20と同じ場所に設置されている必要はなく、通常、撮像装置20による撮像と、CT装置30による三次元形状を示す情報の取得とは別々に行われる。なお、CT画像から三次元形状を示す情報の構成には、例えば特開2005−278992号公報に記載の方法を用いることができる。   The CT apparatus 30 scans an object using radiation or the like, and creates an image (CT image) of the internal structure processed by using a computer by cutting it at equal intervals (for example, 1 mm). It is configured as information indicating a three-dimensional shape, and an existing CT apparatus can be used. An example of a CT image is shown in FIG. The CT apparatus 30 is connected to the PC 40 and transmits information indicating the acquired three-dimensional shape of the patient 60 to the PC 40. Note that the CT apparatus 30 does not need to be installed at the same location as the imaging apparatus 20, and usually, imaging by the imaging apparatus 20 and acquisition of information indicating a three-dimensional shape by the CT apparatus 30 are performed separately. For example, a method described in Japanese Patent Laid-Open No. 2005-278992 can be used to construct information indicating a three-dimensional shape from a CT image.

なお、手術支援情報表示装置1では、患者60の内部を含む三次元形状を示す情報が取得できればよい。従って、CT装置30に代えてMRI装置などが用いられてもよい。   Note that the surgery support information display device 1 only needs to acquire information indicating a three-dimensional shape including the inside of the patient 60. Accordingly, an MRI apparatus or the like may be used instead of the CT apparatus 30.

PC40は、撮像装置20により撮像された画像の情報及びCT装置30により取得された患者60の三次元形状を示す第1の情報を受信して、これらの情報に対して情報処理を行う装置である。PC40は、具体的には、CPU(Central Processing Unit)、メモリ等のハードウェアにより構成され、これらの情報処理装置が動作することにより、下記のPC40の機能が実現される。図1に示すように、PC40は、機能的な構成要素として、患者形状取得部41と、撮像画像取得部42と、表面形状算出部43と、座標軸一致部44と、内視鏡光軸算出部45と、交点算出部46と、出力部47とを備えている。   The PC 40 is an apparatus that receives information on an image captured by the imaging apparatus 20 and first information indicating the three-dimensional shape of the patient 60 acquired by the CT apparatus 30 and performs information processing on the information. is there. Specifically, the PC 40 is configured by hardware such as a CPU (Central Processing Unit) and a memory, and the following functions of the PC 40 are realized by operating these information processing apparatuses. As shown in FIG. 1, the PC 40 includes, as functional components, a patient shape acquisition unit 41, a captured image acquisition unit 42, a surface shape calculation unit 43, a coordinate axis matching unit 44, and an endoscope optical axis calculation. Unit 45, intersection calculation unit 46, and output unit 47.

患者形状取得部41は、CT装置30から送信される、患者60の三次元形状を示す第1の情報を受信する手段である。患者形状取得部41は、受信した第1の情報を、必要に応じて座標軸一致部44及び交点算出部46等に出力する。なお、手術支援情報表示装置1では、必ずしもCT装置30自体を備えている必要はなく、患者形状取得部41により(手術支援情報表示装置1に含まれないCT装置で撮像等された)患者60の三次元形状を示す第1の情報が受信さえされればよい。   The patient shape acquisition unit 41 is means for receiving first information indicating the three-dimensional shape of the patient 60 transmitted from the CT apparatus 30. The patient shape acquisition unit 41 outputs the received first information to the coordinate axis matching unit 44, the intersection calculation unit 46, and the like as necessary. Note that the surgery support information display device 1 does not necessarily include the CT device 30 itself, and the patient 60 (taken by a CT device not included in the surgery support information display device 1) by the patient shape acquisition unit 41. It is only necessary to receive the first information indicating the three-dimensional shape.

撮像画像取得部42は、撮像装置20により撮像され送信された画像の情報を受信する手段である。即ち、撮像画像取得部42は、患者60に内視鏡11が差し込まれるときに撮像装置20により撮像された患者の表面の画像を取得する手段である。撮像画像取得部42は、受信した画像を表面形状算出部43及び内視鏡光軸算出部45等に出力する。   The captured image acquisition unit 42 is means for receiving information of an image captured and transmitted by the imaging device 20. That is, the captured image acquisition unit 42 is a unit that acquires an image of the surface of the patient captured by the imaging device 20 when the endoscope 11 is inserted into the patient 60. The captured image acquisition unit 42 outputs the received image to the surface shape calculation unit 43, the endoscope optical axis calculation unit 45, and the like.

表面形状算出部43は、撮像装置20により撮像された患者60の表面の画像から、患者60の表面の第2の三次元形状を示す第2の情報を算出する手段である。患者60の表面は、本実施形態の場合、患者60の顔面である。画像から三次元形状を算出する方法は、例えば、上述した特開2003−254732号公報に記載された方法を用いることができる。第2の情報は、例えば予め表面形状算出部43に設定されている所定の座標軸に対する座標毎に三次元形状を示す情報を構成することにより算出される。この座標軸は、上述した第1の座標軸とは異なるものであり第2の座標軸である。即ち、第2の情報は、第2の座標軸上における情報である。なお、三次元形状を示す第2の情報は、例えば、第1の情報と同様に三次元配列で構成される。表面形状算出部43は、算出した第2の情報を、座標軸一致部44に出力する。   The surface shape calculation unit 43 is means for calculating second information indicating the second three-dimensional shape of the surface of the patient 60 from the image of the surface of the patient 60 captured by the imaging device 20. The surface of the patient 60 is the face of the patient 60 in this embodiment. As a method for calculating a three-dimensional shape from an image, for example, the method described in Japanese Patent Laid-Open No. 2003-254732 described above can be used. The second information is calculated, for example, by configuring information indicating a three-dimensional shape for each coordinate with respect to a predetermined coordinate axis set in the surface shape calculation unit 43 in advance. This coordinate axis is different from the first coordinate axis described above and is a second coordinate axis. That is, the second information is information on the second coordinate axis. In addition, the 2nd information which shows a three-dimensional shape is comprised by the three-dimensional arrangement | sequence similarly to 1st information, for example. The surface shape calculation unit 43 outputs the calculated second information to the coordinate axis matching unit 44.

座標軸一致部44は、患者形状取得部41により取得された第1の情報と、表面形状算出部43により算出された第2の情報とをマッチング(位置合わせ)することで、第1の座標軸と第2の座標軸とを一致させる手段である。即ち、座標軸一致部44は、CT装置30により取得された第1の情報と、撮像装置20により撮像された画像から算出された第2の情報とを同じ座標軸上で処理できるようにするための手段である。このために、座標軸一致部44は、図4に示すように、情報受付部44a、基準点設定部44b、対応点算出部44c、及び位置合わせ部44dを備えている。   The coordinate axis matching unit 44 matches (positions) the first information acquired by the patient shape acquisition unit 41 and the second information calculated by the surface shape calculation unit 43, so that the first coordinate axis and Means for matching the second coordinate axis. That is, the coordinate axis matching unit 44 can process the first information acquired by the CT apparatus 30 and the second information calculated from the image captured by the imaging apparatus 20 on the same coordinate axis. Means. For this purpose, the coordinate axis matching unit 44 includes an information receiving unit 44a, a reference point setting unit 44b, a corresponding point calculating unit 44c, and an alignment unit 44d, as shown in FIG.

なお、下記に示す、情報受付部44a、基準点設定部44b、対応点算出部44c、及び位置合わせ部44dの機能に必要な式やルール等は、これら情報受付部44a、基準点設定部44b、対応点算出部44c、及び位置合わせ部44dのそれぞれに記憶されており、機能を実行する際に必要に応じて読み出される。   It should be noted that the expressions and rules necessary for the functions of the information receiving unit 44a, the reference point setting unit 44b, the corresponding point calculating unit 44c, and the positioning unit 44d shown below are the information receiving unit 44a and the reference point setting unit 44b. Are stored in each of the corresponding point calculation unit 44c and the alignment unit 44d, and are read out as necessary when the function is executed.

情報受付部44aは、患者形状取得部41により取得された第1の情報、及び表面形状算出部43により算出された第2の情報の入力を受け付ける受付手段である。この情報受付部44aは、受け付けた第1の情報を基準点設定部44bに出力するとともに、受け付けた第2の情報を対応点算出部44cに出力する。   The information reception unit 44 a is a reception unit that receives input of the first information acquired by the patient shape acquisition unit 41 and the second information calculated by the surface shape calculation unit 43. The information receiving unit 44a outputs the received first information to the reference point setting unit 44b and outputs the received second information to the corresponding point calculating unit 44c.

基準点設定部44bは、情報受付部44aから入力された第1の情報で示される第1の三次元形状上に複数の基準点を設ける設定手段である。具体的には、基準点設定部44bは、どの点が基準点に設定されたかを判別可能にするために、設定された基準点を示す基準点情報を第1の情報に付加する。例えば、第1の情報が三次元配列で構成されている場合、基準点設定部44bは、当該三次元配列を構成する複数の要素(点の座標)のうち基準点に設定された要素のそれぞれについて、当該要素と基準点情報(例えばフラグ)とを関連付ける。なお、設定される基準点の個数(密度)は限定されない。例えば、基準点設定部44bが、所定の距離毎に基準点を設けてもよいし、第1の三次元形状上を構成する点すべてを基準点に設定してもよい。基準点設定部44bは、基準点情報を付加した第1の情報を対応点算出部44cに出力する。   The reference point setting unit 44b is a setting unit that provides a plurality of reference points on the first three-dimensional shape indicated by the first information input from the information receiving unit 44a. Specifically, the reference point setting unit 44b adds reference point information indicating the set reference point to the first information in order to be able to determine which point is set as the reference point. For example, when the first information is configured in a three-dimensional array, the reference point setting unit 44b sets each of the elements set as the reference points among a plurality of elements (point coordinates) configuring the three-dimensional array. Is associated with reference point information (for example, a flag). Note that the number (density) of reference points to be set is not limited. For example, the reference point setting unit 44b may provide a reference point for each predetermined distance, or may set all points constituting the first three-dimensional shape as reference points. The reference point setting unit 44b outputs the first information to which the reference point information is added to the corresponding point calculation unit 44c.

対応点算出部44cは、基準点設定部44bにより設定された複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を、情報受付部44aから入力された第2の情報で示される第2の三次元形状の限定された範囲から算出する算出手段である。なお、限定された範囲を算出するために必要な式、ルール、データ等は、対応点算出部44cに記憶されており、限定された範囲を算出する際に読み出される。   The corresponding point calculation unit 44c indicates, for each of the plurality of reference points set by the reference point setting unit 44b, the corresponding point at the shortest distance from the reference point by the second information input from the information receiving unit 44a. Calculating means for calculating from a limited range of the second three-dimensional shape. Note that formulas, rules, data, and the like necessary for calculating the limited range are stored in the corresponding point calculation unit 44c, and are read out when the limited range is calculated.

対応点算出部44cは、対応点を算出すると、どの点が対応点として算出されたかを判別可能にするために、算出された対応点を示す対応点情報を第2の情報に付加する。例えば、第2の情報が三次元配列で構成されている場合、対応点算出部44cは、当該三次元配列を構成する複数の要素(点の座標)のうち、対応点として算出された要素のそれぞれについて、当該要素と対応点情報(例えばフラグ)とを関連付ける。そして、対応点算出部44cは、基準点設定部44bから入力された第1の情報と、対応点情報を付加した第2の情報とを位置合わせ部44dに出力する。   When the corresponding point is calculated, the corresponding point calculating unit 44c adds corresponding point information indicating the calculated corresponding point to the second information in order to be able to determine which point is calculated as the corresponding point. For example, when the second information is configured in a three-dimensional array, the corresponding point calculation unit 44c selects the element calculated as the corresponding point from among a plurality of elements (point coordinates) configuring the three-dimensional array. For each, the element is associated with corresponding point information (for example, a flag). Then, the corresponding point calculation unit 44c outputs the first information input from the reference point setting unit 44b and the second information added with the corresponding point information to the alignment unit 44d.

対応点算出部44cの処理を、図5を参照して説明する。なお、図5では、説明の簡単のため、マッチングする図形を二次元の曲線p及びmとする。また、図5に示す例では、曲線mを固定し、曲線pを曲線mにマッチングさせるものとする。図5に示す二次元空間におけるマッチングは、本実施形態のような三次元空間におけるマッチングに簡単に拡張することができる。例えば、曲線pを第1の情報で示される第1の三次元形状と読み替えるとともに、曲線mを第2の情報で示される第2の三次元形状と読み替えることで、座標軸一致部44による第1の情報と第2の情報とのマッチングを説明できる。   The processing of the corresponding point calculation unit 44c will be described with reference to FIG. In FIG. 5, for the sake of simplicity, the matching figures are assumed to be two-dimensional curves p and m. In the example shown in FIG. 5, the curve m is fixed and the curve p is matched with the curve m. The matching in the two-dimensional space shown in FIG. 5 can be easily extended to the matching in the three-dimensional space as in this embodiment. For example, by replacing the curve p with the first three-dimensional shape indicated by the first information and replacing the curve m with the second three-dimensional shape indicated by the second information, Can be matched with the second information.

対応点算出部44cは、まず、曲線m周辺の最短距離場を算出する。ここで、最短距離場とは、ある図形から最短距離(最短パスの長さ)に存在する点で構成される近傍空間である。次に、対応点算出部44cは、曲線p上にある任意の基準点(第1の基準点)Paを選択し、その基準点Paから最短距離にある、曲線m上の対応点Maを探索(算出)する。この対応点Maの探索は、曲線m上のすべての点について基準点Paとの距離を算出し、算出された距離を比較することで行われる。なお、対応点算出部44cは、基準点Paとの距離を算出する曲線m上の点の位置を、所定の関係式や、曲線mを構成する点の配列などにより予め算出できる。例えば、対応点算出部44cは、第1の情報又は第2の情報により、第1の三次元形状又は第2の三次元形状上に存在する点の位置を取得できる。   The corresponding point calculation unit 44c first calculates the shortest distance field around the curve m. Here, the shortest distance field is a neighborhood space composed of points existing at a shortest distance (the length of the shortest path) from a certain figure. Next, the corresponding point calculation unit 44c selects an arbitrary reference point (first reference point) Pa on the curve p, and searches for the corresponding point Ma on the curve m that is the shortest distance from the reference point Pa. (calculate. The search for the corresponding point Ma is performed by calculating the distance from the reference point Pa for all points on the curve m and comparing the calculated distances. The corresponding point calculation unit 44c can calculate in advance the position of the point on the curve m for calculating the distance from the reference point Pa by using a predetermined relational expression, the arrangement of the points constituting the curve m, or the like. For example, the corresponding point calculation unit 44c can acquire the position of a point existing on the first three-dimensional shape or the second three-dimensional shape based on the first information or the second information.

なお、基準点と対応点との位置関係は、それら二つの三次元形状が共通の座標軸上に存在することを前提に定義される。例えば、基準点Paと曲線m上の点との距離の算出は、曲線pと曲線mとが共通の座標軸上に存在することを前提とする。すなわち、最短距離とは、これら二つの曲線が共通の座標軸上に存在するとした場合の、基準点と対応点との距離である。   The positional relationship between the reference point and the corresponding point is defined on the assumption that the two three-dimensional shapes exist on a common coordinate axis. For example, the calculation of the distance between the reference point Pa and a point on the curve m assumes that the curve p and the curve m exist on a common coordinate axis. That is, the shortest distance is the distance between the reference point and the corresponding point when these two curves exist on a common coordinate axis.

次に、対応点算出部44cは、曲線p上にある別の基準点(第2の基準点)Pbを選択し、その基準点Pbから最短距離にある、曲線m上の対応点Mbを探索(算出)する。この際、対応点算出部44cは、曲線m上の限定された範囲に存在する複数の点と基準点Paとの距離を算出する。   Next, the corresponding point calculation unit 44c selects another reference point (second reference point) Pb on the curve p, and searches for the corresponding point Mb on the curve m that is the shortest distance from the reference point Pb. (calculate. At this time, the corresponding point calculation unit 44c calculates the distance between a plurality of points existing in a limited range on the curve m and the reference point Pa.

このために、対応点算出部44cは、基準点Pa及びPbの座標値と、対応点Maの座標値と、基準点Paと対応点Maとの距離lと、基準点Pbと対応点Maとの距離dと、基準点Pbの座標値、及び曲線m周辺の最短距離場によって定まる距離l’とを取得する。これらの値は、既知のもの、又は既知の値から算出可能なものである。そして、対応点算出部44cは、取得したこれらの値に基づいて、対応点Mbを探索する範囲を決定する。   For this purpose, the corresponding point calculation unit 44c includes the coordinate values of the reference points Pa and Pb, the coordinate value of the corresponding point Ma, the distance l between the reference point Pa and the corresponding point Ma, the reference point Pb, and the corresponding point Ma. , The coordinate value of the reference point Pb, and the distance l ′ determined by the shortest distance field around the curve m. These values are known or can be calculated from known values. Then, the corresponding point calculation unit 44c determines a range for searching for the corresponding point Mb based on the acquired values.

この場合において、基準点Pbと、既知の対応点Maと、未知の対応点Mbとの位置関係から、下記の三角不等式が成り立つ。なお、dは、既知の対応点Maと未知の対応点Mbとの距離である。
≦l’+d
In this case, the following triangular inequality is established from the positional relationship among the reference point Pb, the known corresponding point Ma, and the unknown corresponding point Mb. Incidentally, d m is the distance between the known corresponding points Ma and unknown correspondence point Mb.
d m ≦ l ′ + d

したがって、未知の対応点Mbを探索すべき曲線mの範囲は、既知の対応点Maを中心とし、且つ半径が下記式で表される円C内に限定される。
r=l’+d …(1)
この半径rは、下記式を用いて算出してもよい。ただし、dは、既知の基準点Pa及びPbの間の距離である。
r=l+l’+d …(2)
Therefore, the range of the curve m to be searched for the unknown corresponding point Mb is limited to the circle C whose center is the known corresponding point Ma and whose radius is expressed by the following equation.
r = l ′ + d (1)
The radius r may be calculated using the following formula. Here, d p is a distance between known reference points Pa and Pb.
r = l + l ′ + d p (2)

なお、第1及び第2の情報で示される図形は三次元形状であるから、本実施形態において、対応点算出部44cは、上記理論に準じて算出された所定の半径を有する球内で対応点を探索する。   In addition, since the figure shown by the 1st and 2nd information is a three-dimensional shape, in this embodiment, the corresponding point calculation part 44c respond | corresponds within the sphere which has the predetermined radius calculated according to the said theory. Search for a point.

すなわち、対応点算出部44cは、曲線mのうち、対応点Maから上記式(1)又は(2)で定義される半径rの範囲にある点についてのみ、当該点と基準点Pbとの距離を算出する。そして、対応点算出部44cは、基準点Pbとの距離が最短である点を対応点Mbと決定する。なお、対応点算出部44cは、曲線m上の点の位置を予め算出し取得することができる。したがって、対応点算出部44cは、予め取得した曲線m上の点の位置と、対応点Maの位置と、上記式(1)又は(2)で定義される半径rとに基づいて、基準点Pbとの距離を算出すべき曲線m上の点を取得できる。   That is, the corresponding point calculation unit 44c only determines the distance between the corresponding point Ma and the reference point Pb in the curve m only for the points within the radius r defined by the above formula (1) or (2) from the corresponding point Ma. Is calculated. Then, the corresponding point calculation unit 44c determines the point having the shortest distance from the reference point Pb as the corresponding point Mb. The corresponding point calculation unit 44c can calculate and acquire the position of the point on the curve m in advance. Therefore, the corresponding point calculation unit 44c determines the reference point based on the position of the point on the curve m acquired in advance, the position of the corresponding point Ma, and the radius r defined by the above formula (1) or (2). A point on the curve m whose distance from Pb should be calculated can be acquired.

その後、対応点算出部44cは、曲線p上にある一以上の別の基準点に対する対応点を探索(算出)する。この対応点の算出方法は、対応点Mbの算出方法と同様である。すなわち、二番目以降の対応点を算出する場合、対応点算出部44cは、当該対応点を曲線m上の限定された範囲から算出する。   Thereafter, the corresponding point calculation unit 44c searches (calculates) a corresponding point for one or more other reference points on the curve p. The method for calculating the corresponding point is the same as the method for calculating the corresponding point Mb. That is, when calculating the second and subsequent corresponding points, the corresponding point calculation unit 44c calculates the corresponding points from a limited range on the curve m.

位置合わせ部44dは、基準点設定部44bにより設定された複数の基準点と、対応点算出部44cにおいて算出された複数の対応点との位置関係に基づいて第1の情報を変換することで、第1の情報で示される第1の三次元形状と第2の情報で示される第2の三次元形状とを位置合わせする位置合わせ手段である。   The alignment unit 44d converts the first information based on the positional relationship between the plurality of reference points set by the reference point setting unit 44b and the plurality of corresponding points calculated by the corresponding point calculation unit 44c. Alignment means for aligning the first three-dimensional shape indicated by the first information and the second three-dimensional shape indicated by the second information.

具体的には、位置合わせ部44dは、基準点と、その基準点に対応する対応点との距離の平均値を算出する。なお、基準点は、第1の情報を構成するデータに付加された基準点情報に基づいて抽出可能であり、対応点は、第2の情報を構成するデータに付加された対応点情報とに基づいて抽出可能である。   Specifically, the alignment unit 44d calculates an average value of the distance between the reference point and the corresponding point corresponding to the reference point. The reference point can be extracted based on the reference point information added to the data constituting the first information, and the corresponding point is the corresponding point information added to the data constituting the second information. Extraction based on

続いて、位置合わせ部44dは、複数算出された基準点と対応点との位置関係に基づいて回転行列R及び平行移動行列Tを算出し、これら二つの行列を用いて剛体変換を行う。この剛体変換は、図5の例の場合、剛体変換前の曲線pの位置をpi-1、剛体変換後の曲線pの位置をpiとして、下記式で表される。この剛体変換により、曲線pが回転移動又は平行移動し、曲線pと曲線mとが位置合わせされる。
i=R*pi-1+T …(3)
Subsequently, the alignment unit 44d calculates the rotation matrix R and the translation matrix T based on the positional relationship between the plurality of calculated reference points and corresponding points, and performs rigid body transformation using these two matrices. In the case of the example of FIG. 5, this rigid body transformation is represented by the following equation, where p i-1 is the position of the curve p before the rigid transformation and p i is the position of the curve p after the rigid transformation. By this rigid transformation, the curve p rotates or translates, and the curve p and the curve m are aligned.
p i = R * p i-1 + T (3)

位置合わせ部44dは、上記式(3)に基づいて、第1の情報を変換する。これにより、第1の三次元形状が回転移動又は平行移動し、第1の三次元形状と第2の三次元形状とが位置合わせされる。続いて、位置合わせ部44dは、今回算出した平均値と前回算出した平均値との差が所定の閾値未満か否かを判定する。なお、この差が所定の閾値未満になるということは、第1の情報と第2の情報とがマッチング(位置合わせ)され、第1の座標軸と第2の座標軸とが一致したということである。これは、第1の座標軸及び第2の座標軸の何れか一方の座標軸をもう一方の座標軸に変換する関数が算出されたことを意味する。この場合、位置合わせ部44dは、座標軸を一致させた結果として算出された座標軸を変換する関数等を、必要に応じて内視鏡光軸算出部45、交点算出部46及び出力部47等に出力する。   The alignment unit 44d converts the first information based on the above equation (3). As a result, the first three-dimensional shape rotates or translates, and the first three-dimensional shape and the second three-dimensional shape are aligned. Subsequently, the alignment unit 44d determines whether or not the difference between the average value calculated this time and the average value calculated last time is less than a predetermined threshold value. Note that the fact that the difference is less than the predetermined threshold means that the first information and the second information are matched (positioned), and the first coordinate axis and the second coordinate axis match. . This means that a function for converting one of the first coordinate axis and the second coordinate axis to the other coordinate axis is calculated. In this case, the alignment unit 44d sends a function for converting the coordinate axis calculated as a result of matching the coordinate axes to the endoscope optical axis calculation unit 45, the intersection calculation unit 46, the output unit 47, and the like as necessary. Output.

これに対し、今回算出した平均値と前回算出した平均値との差が所定の閾値以上である場合、位置合わせ部44dは、上記式(3)を用いて変換された第1の情報を対応点算出部44cに出力する。これにより、対応点算出部44cにおいて、当該変換された第1の情報と取得済みの第2の情報とに基づく対応点の算出が行われる。すなわち、対応点の算出から剛体変換までの処理が繰り返し実行される。   On the other hand, when the difference between the average value calculated this time and the average value calculated last time is equal to or greater than a predetermined threshold, the alignment unit 44d corresponds to the first information converted using the above equation (3). It outputs to the point calculation part 44c. As a result, the corresponding point calculation unit 44c calculates the corresponding points based on the converted first information and the acquired second information. That is, the processing from the calculation of corresponding points to the rigid body transformation is repeatedly executed.

このような座標軸一致部44の処理により、上記の座標軸を一致させる処理以降は、内視鏡光軸算出部45、交点算出部46及び出力部47等において上記の関数等が、三次元形状を示す情報に適用されることによって、CT装置30による三次元形状を示す情報と、撮像装置20により撮像された画像から算出された三次元形状を示す情報とが同じ座標軸上で処理される。   After the process of matching the coordinate axes by the process of the coordinate axis matching unit 44 as described above, the above functions and the like in the endoscope optical axis calculation unit 45, the intersection calculation unit 46, the output unit 47, and the like change the three-dimensional shape. By applying to the information to be shown, the information indicating the three-dimensional shape by the CT device 30 and the information indicating the three-dimensional shape calculated from the image captured by the imaging device 20 are processed on the same coordinate axis.

内視鏡光軸算出部45は、撮像装置20により撮像された標識球12の画像から、座標軸一致部44により一致された座標軸上における、標識球12の三次元座標を算出して、標識球12と内視鏡11の撮像方向Aとの位置関係から内視鏡11の撮像方向Aである光軸を示す半直線を算出する手段である。なお、ここで言う撮像方向Aである光軸を示す半直線には、半直線の起点となる位置も含まれる。即ち、内視鏡11の撮像方向Aである光軸を示す半直線は、どの点からどの方向に撮像が行われるかを示したものである。内視鏡光軸算出部45は、予め、標識球12と内視鏡11の撮像方向Aとの位置関係を示す情報を保持している。当該位置関係を示す情報としては、具体的には例えば、内視鏡11の光軸(撮像方向Aである光軸を示す半直線)を通るように内視鏡11の基部の所定の位置と先端の位置とを特定して、その2点と標識球12との位置関係を示す情報が用いられる。   The endoscope optical axis calculation unit 45 calculates the three-dimensional coordinates of the marker sphere 12 on the coordinate axis matched by the coordinate axis matching unit 44 from the image of the marker sphere 12 imaged by the imaging device 20, and the marker sphere 12 12 is a means for calculating a half line indicating the optical axis that is the imaging direction A of the endoscope 11 from the positional relationship between the imaging direction 12 of the endoscope 11 and the imaging direction A of the endoscope 11. In addition, the position which becomes the starting point of a half line is included in the half line which shows the optical axis which is the imaging direction A said here. That is, the half line indicating the optical axis that is the imaging direction A of the endoscope 11 indicates from which point the imaging is performed. The endoscope optical axis calculation unit 45 holds information indicating the positional relationship between the marker sphere 12 and the imaging direction A of the endoscope 11 in advance. As the information indicating the positional relationship, specifically, for example, a predetermined position of the base of the endoscope 11 so as to pass through the optical axis of the endoscope 11 (a half line indicating the optical axis that is the imaging direction A). Information indicating the position of the tip and the positional relationship between the two points and the marker sphere 12 is used.

内視鏡11の撮像方向Aである光軸を示す半直線の算出は、具体的には、以下のように行われる。まず、内視鏡光軸算出部45は、表面形状算出部43における三次元形状を算出する方法と同様の方法で、撮像装置20により撮像された標識球12から三次元形状及び三次元座標を算出する。標識球12が複数設けられている場合、内視鏡光軸算出部45は、例えば標識球12の大きさ等からそれぞれの標識球12を識別する。   The calculation of the half line indicating the optical axis that is the imaging direction A of the endoscope 11 is specifically performed as follows. First, the endoscope optical axis calculation unit 45 calculates the three-dimensional shape and the three-dimensional coordinates from the marker sphere 12 imaged by the imaging device 20 in the same manner as the method of calculating the three-dimensional shape in the surface shape calculation unit 43. calculate. When a plurality of marker spheres 12 are provided, the endoscope optical axis calculation unit 45 identifies each marker sphere 12 based on the size of the marker sphere 12, for example.

続いて、内視鏡光軸算出部45は、算出された上記の座標軸上における標識球12の三次元座標と、標識球12と内視鏡11の撮像方向Aとの位置関係を示す情報とから、上記の座標軸上における撮像方向Aである光軸を示す半直線を算出する。内視鏡光軸算出部45は、算出した撮像方向である光軸を示す半直線の情報を、交点算出部46に出力する。   Subsequently, the endoscope optical axis calculation unit 45 includes the calculated three-dimensional coordinates of the marker sphere 12 on the coordinate axis and information indicating the positional relationship between the marker sphere 12 and the imaging direction A of the endoscope 11. Then, a half line indicating the optical axis that is the imaging direction A on the coordinate axis is calculated. The endoscope optical axis calculation unit 45 outputs half-line information indicating the optical axis that is the calculated imaging direction to the intersection calculation unit 46.

交点算出部46は、内視鏡光軸算出部45により算出された内視鏡11の撮像方向Aである光軸を示す半直線と患者形状取得部41により取得された第1の情報に係る患者60の内部を構成する面との交点を算出する手段である。この交点は、CT装置30による三次元形状を示す第1の情報において、内視鏡11が撮像を行っている点(中心点)を示すものである。具体的には、交点算出部46は、患者60の内部を構成する面をポリゴンデータにして、当該ポリゴンデータを構成する各面と内視鏡11の撮像方向Aである光軸を示す半直線との交点を算出する。交点の算出については、より詳細には後述する。交点算出部46は、算出した交点の情報を出力部47に出力する。   The intersection calculation unit 46 relates to the half line indicating the optical axis that is the imaging direction A of the endoscope 11 calculated by the endoscope optical axis calculation unit 45 and the first information acquired by the patient shape acquisition unit 41. It is a means for calculating an intersection with a surface constituting the inside of the patient 60. This intersection point indicates a point (center point) where the endoscope 11 is imaging in the first information indicating the three-dimensional shape by the CT apparatus 30. Specifically, the intersection calculation unit 46 converts the surfaces constituting the inside of the patient 60 into polygon data, and shows each surface constituting the polygon data and the optical axis that is the imaging direction A of the endoscope 11. The intersection point with is calculated. The calculation of the intersection will be described in detail later. The intersection calculation unit 46 outputs the calculated intersection information to the output unit 47.

出力部47は、交点算出部46により算出された交点を示す情報を、患者形状取得部41により取得された患者60の内部を構成する面を示す情報であるCT画像に重畳して、モニタ50に出力する手段である。また、出力部47は、内視鏡11により撮像されてPC40に入力された内視鏡画像を併せて、モニタ50に出力することとしてもよい   The output unit 47 superimposes the information indicating the intersection calculated by the intersection calculation unit 46 on the CT image which is information indicating the surface constituting the inside of the patient 60 acquired by the patient shape acquisition unit 41, and monitors the monitor 50. It is a means to output to. The output unit 47 may output the endoscopic image captured by the endoscope 11 and input to the PC 40 to the monitor 50 together.

モニタ50は、PC40から入力された情報を表示する。術者はモニタ50を参照することにより、内視鏡11が患者60内部のどの部分を撮像しているのかを知ることができる。以上が、手術支援情報表示装置1の構成の構成である。   The monitor 50 displays information input from the PC 40. By referring to the monitor 50, the surgeon can know which part of the patient 60 is imaging the endoscope 11. The above is the configuration of the surgery support information display device 1.

引き続いて、手術支援情報表示装置1の動作(手術支援情報表示方法)について、図6のフローチャートを参照して説明する。この動作は、例えば、患者60に対する手術の際に内視鏡11を挿入して治療等を行うときの動作である。この説明においては、手術前の処理と手術時の処理とに分けて説明する。   Subsequently, the operation (surgery support information display method) of the surgery support information display device 1 will be described with reference to the flowchart of FIG. This operation is, for example, an operation when performing treatment or the like by inserting the endoscope 11 during surgery on the patient 60. In this description, the processing before the operation and the processing at the time of the operation will be described separately.

まず手術前に、CT装置30を用いた、患者60に対するCTスキャン撮影が行われる(ステップS01)。このCTスキャン撮影は、内視鏡11が挿入される患者60の部位に対して行われる。これにより、患者60の表面である顔面と、内視鏡11が挿入される患者60の内部を構成する面との第1の三次元形状を示す第1の情報が取得される。CT装置30によりCTスキャン撮影が行われ取得された第1の情報は、PC40に送信される。PC40では、患者形状取得部41により当該情報が取得されて、PC40内に格納される(ステップS02)。上記が手術前の処理であり、例えば、手術の前日等に行われる。   First, before the operation, CT scan imaging is performed on the patient 60 using the CT apparatus 30 (step S01). This CT scan imaging is performed on the part of the patient 60 into which the endoscope 11 is inserted. Thereby, the 1st information which shows the 1st three-dimensional shape of the face which is the surface of patient 60, and the field which constitutes the inside of patient 60 into which endoscope 11 is inserted is acquired. The first information acquired by CT scan imaging performed by the CT apparatus 30 is transmitted to the PC 40. In the PC 40, the information is acquired by the patient shape acquisition unit 41 and stored in the PC 40 (step S02). The above is processing before surgery, for example, performed on the day before surgery.

引き続いて、手術時の処理を説明する。まず、患者60を手術室に入室させて、図1に示すように、内視鏡11を鼻の穴から挿入できるように手術台70の上の仰向けに配置する。患者60を配置した後、内視鏡11を挿入する前に、撮像装置20によって、配置された患者60が撮像される(ステップS03)。撮像された画像は、撮像装置20からPC40に送信されて、PC40において撮像画像取得部42によって受信される。受信された画像は、撮像画像取得部42から表面形状算出部43に出力される。   Subsequently, processing during surgery will be described. First, the patient 60 enters the operating room, and as shown in FIG. 1, the endoscope 11 is placed on the back on the operating table 70 so that the endoscope 11 can be inserted through the nostril. After the patient 60 is placed and before the endoscope 11 is inserted, the placed patient 60 is imaged by the imaging device 20 (step S03). The captured image is transmitted from the imaging device 20 to the PC 40 and received by the captured image acquisition unit 42 in the PC 40. The received image is output from the captured image acquisition unit 42 to the surface shape calculation unit 43.

表面形状算出部43では、当該画像から患者60の表面である顔面の第2の三次元形状を示す第2の情報が算出される(ステップS04)。算出された第2の情報は、表面形状算出部43から座標軸一致部44に出力される。これと同じタイミングで、PC40内に格納されていた、CT装置30による患者60の三次元形状を示す情報が、患者形状取得部41から座標軸一致部44に出力される。   The surface shape calculation unit 43 calculates second information indicating the second three-dimensional shape of the face that is the surface of the patient 60 from the image (step S04). The calculated second information is output from the surface shape calculation unit 43 to the coordinate axis matching unit 44. Information indicating the three-dimensional shape of the patient 60 by the CT apparatus 30 stored in the PC 40 is output from the patient shape obtaining unit 41 to the coordinate axis matching unit 44 at the same timing.

CT装置30による第1の情報と、撮像装置20による画像から算出された第2の情報とに係るそれぞれの座標軸は、一致していない。これらの情報を共に表示すると、図7(a)に示すように、CT装置30による情報81と、撮像装置20の画像による情報82とが位置合わせされていない状態となる。   The coordinate axes related to the first information by the CT apparatus 30 and the second information calculated from the image by the imaging apparatus 20 do not match. When these pieces of information are displayed together, as shown in FIG. 7A, the information 81 by the CT apparatus 30 and the information 82 by the image of the imaging apparatus 20 are not aligned.

ここで、座標軸一致部44によって、図7(b)に示すように、これら2つの情報81,82における顔面の形状がマッチングされて、2つの情報に係る座標軸が一致される(ステップS05)。なお、マッチングする部位は、顔面全体や顔面の鼻や頬等の特徴ある部位等、予め設定しておく。   Here, as shown in FIG. 7B, the coordinate shape matching unit 44 matches the shape of the face in the two pieces of information 81 and 82 to match the coordinate axes related to the two pieces of information (step S05). Note that the matching parts are set in advance, such as the whole face or a characteristic part such as the nose or cheek of the face.

座標軸を一致させる処理を、図8のフローチャートを参照して詳細に説明する。まず、患者形状取得部41により取得された第1の情報、及び表面形状算出部43により算出された第2の情報の入力が、情報受付部44aにより受け付けられる(ステップS51、受付ステップ)。続いて、基準点設定部44bにより、第1の情報で示される第1の三次元形状上に基準点が複数設定される(ステップS52、設定ステップ)。続いて、対応点算出部44cにより、設定された複数の基準点それぞれについて、当該基準点に対応する対応点が、第2の情報で示される第2の三次元形状から抽出される(ステップS53、算出ステップ)。この抽出は、予め定められた個数分の対応点をすべて抽出するまで繰り返し実行される(ステップS54;NO、算出ステップ)。このとき、二番目以降の対応点の抽出において、対応点は、第2の三次元形状の限定された範囲から抽出される。   The process of matching the coordinate axes will be described in detail with reference to the flowchart of FIG. First, the input of the 1st information acquired by the patient shape acquisition part 41 and the 2nd information calculated by the surface shape calculation part 43 is received by the information reception part 44a (step S51, reception step). Subsequently, the reference point setting unit 44b sets a plurality of reference points on the first three-dimensional shape indicated by the first information (step S52, setting step). Subsequently, for each of the set reference points, the corresponding point corresponding to the reference point is extracted from the second three-dimensional shape indicated by the second information by the corresponding point calculation unit 44c (step S53). , Calculation step). This extraction is repeatedly executed until all corresponding points corresponding to a predetermined number are extracted (step S54; NO, calculation step). At this time, in the extraction of the second and subsequent corresponding points, the corresponding points are extracted from a limited range of the second three-dimensional shape.

そして、すべての対応点が抽出されると(ステップS54;YES、算出ステップ)、位置合わせ部44dによって、以下の一連の処理が行われる。具体的には、まず、基準点と対応点との距離の平均値が算出される(ステップS55)。続いて、複数算出された基準点と対応点との位置関係に基づいて、回転行列及び平行移動行列が算出される(ステップS56、位置合わせステップ)。続いて、その回転行列及び平行移動行列に基づいて、第1の情報が剛体変換される(ステップS57、位置合わせステップ)。この変換により、第1の三次元形状と第2の三次元形状とが位置合わせされる。続いて、今回算出された平均値と前回算出された平均との差が閾値未満か否かが判定される(ステップS57)。   When all corresponding points are extracted (step S54; YES, calculation step), the alignment unit 44d performs the following series of processes. Specifically, first, the average value of the distance between the reference point and the corresponding point is calculated (step S55). Subsequently, a rotation matrix and a translation matrix are calculated based on the positional relationship between the plurality of calculated reference points and corresponding points (step S56, alignment step). Subsequently, the first information is rigidly transformed based on the rotation matrix and the translation matrix (step S57, alignment step). By this conversion, the first three-dimensional shape and the second three-dimensional shape are aligned. Subsequently, it is determined whether or not the difference between the average value calculated this time and the average calculated last time is less than a threshold value (step S57).

ここで、平均値の差が閾値以上であれば(ステップS58;NO)、上記ステップS52の以降の処理が繰り返し実行される。一方、その差が閾値未満の場合(ステップS58;YES)、処理が終了する。これにより、第1の座標軸と第2の座標軸とが一致される。   Here, if the difference between the average values is equal to or larger than the threshold value (step S58; NO), the processing after step S52 is repeatedly executed. On the other hand, when the difference is less than the threshold value (step S58; YES), the process ends. As a result, the first coordinate axis and the second coordinate axis are matched.

一致した座標軸に係る情報は、座標軸一致部44(位置合わせ部44d)から、内視鏡光軸算出部45、交点算出部46及び出力部47にそれぞれ出力されて座標軸の変換等が行われて、これ以降、一致した座標軸を基準として三次元形状に対する情報処理が行われる。上記が手術開始までの処理である。   Information on the coordinate axes that have been matched is output from the coordinate axis matching unit 44 (positioning unit 44d) to the endoscope optical axis calculation unit 45, the intersection calculation unit 46, and the output unit 47, respectively, and conversion of the coordinate axes is performed. Thereafter, information processing on the three-dimensional shape is performed with reference to the coincident coordinate axes. The above is the process until the start of surgery.

続いて、手術が開始され、術者によって、内視鏡11が患者60に挿入される。この際、患者60の頭部は、S03〜S05の処理を行ったときから動かさないようにする。座標軸がずれることを防止するためである。内視鏡11が患者60に挿入される際に、撮像装置20によって、患者60及び標識球12が撮像される(ステップS06)。図9(a)に示すように、撮像された画像には、標識球12(の画像)が含まれている。撮像された画像は、撮像装置20からPC40に送信されて、PC40において撮像画像取得部42によって受信される。受信された画像は、撮像画像取得部42から内視鏡光軸算出部45に出力される。   Subsequently, an operation is started, and the endoscope 11 is inserted into the patient 60 by the operator. At this time, the head of the patient 60 is prevented from moving after the processing of S03 to S05 is performed. This is to prevent the coordinate axes from shifting. When the endoscope 11 is inserted into the patient 60, the patient 60 and the marker sphere 12 are imaged by the imaging device 20 (step S06). As shown in FIG. 9A, the picked-up image includes a marker sphere 12 (image thereof). The captured image is transmitted from the imaging device 20 to the PC 40 and received by the captured image acquisition unit 42 in the PC 40. The received image is output from the captured image acquisition unit 42 to the endoscope optical axis calculation unit 45.

続いて、内視鏡光軸算出部45によって、図9(b)に示すように、画像から標識球12の三次元座標が算出される(ステップS07)。続いて、内視鏡光軸算出部45によって、算出された標識球12の三次元座標から、予め保持していた標識球12と内視鏡11の撮像方向Aとの位置関係を示す情報に基づいて、一致された座標軸上での内視鏡11の撮像方向Aである光軸を示す半直線が算出される(ステップS08)。   Subsequently, as shown in FIG. 9B, the three-dimensional coordinates of the marker sphere 12 are calculated from the image by the endoscope optical axis calculation unit 45 (step S07). Subsequently, information indicating the positional relationship between the marker sphere 12 and the imaging direction A of the endoscope 11 held in advance is calculated from the three-dimensional coordinates of the marker sphere 12 calculated by the endoscope optical axis calculator 45. Based on this, a half line indicating the optical axis that is the imaging direction A of the endoscope 11 on the matched coordinate axis is calculated (step S08).

算出された半直線の情報は、内視鏡光軸算出部45から交点算出部46に出力される。これと同じタイミングで、PC40内に格納されていた、CT装置30による第1の情報が、患者形状取得部41から交点算出部46に出力される。続いて、交点算出部46によって、内視鏡11の撮像方向Aである光軸を示す半直線と、患者60の内部を構成する面との交点が算出される(ステップS09)。   The calculated half-line information is output from the endoscope optical axis calculation unit 45 to the intersection calculation unit 46. At the same timing, the first information by the CT apparatus 30 stored in the PC 40 is output from the patient shape acquisition unit 41 to the intersection calculation unit 46. Subsequently, the intersection calculation unit 46 calculates the intersection between the half line indicating the optical axis that is the imaging direction A of the endoscope 11 and the plane that forms the inside of the patient 60 (step S09).

交点の算出は、以下のように行われる。まず、交点算出部46によって、CT装置30による第1の情報が、ポリゴンデータに変換される。この変換により、患者60(の内部)を構成する面が、例えば多数の三角形で構成させることとなる。次に、それらの各三角形と、内視鏡11の撮像方向Aである光軸を示す半直線との交点が算出される。   The intersection is calculated as follows. First, the intersection calculation unit 46 converts the first information from the CT apparatus 30 into polygon data. By this conversion, the surface constituting the patient 60 (inside) is constituted by, for example, a large number of triangles. Next, the intersection of each triangle and the half line indicating the optical axis that is the imaging direction A of the endoscope 11 is calculated.

この交点の算出について、図10を用いて説明する。ポリゴンを構成する三角形の基準となる点をPT、三角形の2辺のベクトルをそれぞれvecA及びvecBとし、2つの媒介変数をα及びβとすると、三角形は以下の式で表すことができる。
P1=PT+αvecA+βvecB
また、内視鏡11の撮像方向Aの基準となる点(例えば、内視鏡11の先端の点)をPL、半直線の方向を示すベクトルをvecCとし、媒介変数をγとすると、内視鏡11の撮像方向Aは以下の式で表すことができる。
P2=PL+γvecC
The calculation of this intersection will be described with reference to FIG. A triangle can be expressed by the following expression, where PT is a reference point of a triangle constituting a polygon, two vectors of the triangle are vecA and vecB, and two parameters are α and β.
P1 = PT + αvecA + βvecB
Further, assuming that the reference point of the imaging direction A of the endoscope 11 (for example, the point at the tip of the endoscope 11) is PL, the vector indicating the direction of the half line is vecC, and the parameter is γ, The imaging direction A of the mirror 11 can be expressed by the following equation.
P2 = PL + γvecC

ここで、両者が交わるときはP1=P2となる。P1=P2となる点が、三角形の内部に存在する条件は、媒介変数が以下の条件を満たす場合である。
条件1:0<α,0<β
条件2:0<α+β<1
条件3:γ>0
これらの条件を満たす点を全てのポリゴンデータを構成する三角形について導出し、それら全ての点と内視鏡11の先端の点との距離を計算する。この距離が最も小さくなる交点を、内視鏡11の撮像方向Aである光軸を示す半直線と患者60の内部を構成する面との交点とする。
Here, when the two intersect, P1 = P2. The condition that the point where P1 = P2 exists inside the triangle is when the parameter satisfies the following condition.
Condition 1: 0 <α, 0 <β
Condition 2: 0 <α + β <1
Condition 3: γ> 0
Points that satisfy these conditions are derived for the triangles that make up all the polygon data, and the distance between all these points and the point at the tip of the endoscope 11 is calculated. The intersection at which this distance is the smallest is the intersection of the half line indicating the optical axis that is the imaging direction A of the endoscope 11 and the surface that forms the inside of the patient 60.

算出された交点の座標の情報は、交点算出部46から出力部47に出力される。このタイミングで、患者60の内部を構成する面を示す情報であるCT画像が、患者形状取得部41から出力部47に出力される。交点の情報は、出力部47によって、患者60の内部を構成する面を示す情報であるCT画像に当該交点の座標に応じた箇所に重畳されて、モニタ50に入力される。入力された画像は、モニタ50によって表示される(ステップS10)。交点の表示は、具体的には例えば、図11に示すように、内視鏡11により撮像されている箇所がどの点に位置しているかが分かるように、十字の表示90として行われる。術者は表示された画像を参照することにより、内視鏡11が患者60内部のどの部分を撮像しているのかを知ることができる。   Information on the coordinates of the calculated intersection is output from the intersection calculation unit 46 to the output unit 47. At this timing, a CT image that is information indicating a surface constituting the inside of the patient 60 is output from the patient shape acquisition unit 41 to the output unit 47. The information on the intersection is input to the monitor 50 by the output unit 47 by superimposing the CT image, which is information indicating the surface constituting the inside of the patient 60, at a location corresponding to the coordinates of the intersection. The input image is displayed on the monitor 50 (step S10). Specifically, for example, as shown in FIG. 11, the intersection point is displayed as a cross display 90 so that the point where the part imaged by the endoscope 11 is located can be seen. By referring to the displayed image, the surgeon can know which part of the patient 60 is imaging the endoscope 11.

また、内視鏡11により撮像された画像も、PC40によって受信されて出力部47からモニタ50に出力されるようにして、上記の内視鏡11により撮像されている箇所がどの点に位置しているかの表示と併せて表示されるようにすることが望ましい。例えば、図12に示す画面例91のように、内視鏡11により撮像された画像92と、内視鏡11により撮像されている箇所がどの点に位置しているかが示されたCT画像93a〜93cとを1つの画面に示すこととするのがよい。また、その際の内視鏡11の画像には、交点に対応する箇所を示す情報(例えば、十字形(+)のマーク)94を重畳させることが望ましい。内視鏡11の画像における交点に対応する箇所を示す情報の位置は、例えば、画像の中心等、内視鏡11の撮像方向に応じて予め出力部47に記憶させておく。また、術者が対応する箇所を理解しやすいように、CT画像93a〜93cは、断面がそれぞれ異なるもの(断面がそれぞれ直交するものがよい)を複数、表示することとするのがよい。図12では、CT画像93aは横断面のもの、CT画像93bは冠状断面のもの、CT画像93cは、矢状断面のものである。更に、CT画像93a〜93cには、交点の情報(画像とは色違いの四角95で示す)に加えて、内視鏡11が挿入されている方向(内視鏡11の撮像方向である光軸)96を示すことが望ましい。   In addition, the image captured by the endoscope 11 is also received by the PC 40 and output from the output unit 47 to the monitor 50, so that the position where the image is captured by the endoscope 11 is located at any point. It is desirable to be displayed together with the display of whether or not For example, as in a screen example 91 shown in FIG. 12, an image 92 captured by the endoscope 11 and a CT image 93a that indicates where the position captured by the endoscope 11 is located. ~ 93c should be shown on one screen. In addition, it is desirable to superimpose information (for example, a cross (+) mark) 94 indicating a location corresponding to the intersection on the image of the endoscope 11 at that time. The position of the information indicating the location corresponding to the intersection in the image of the endoscope 11 is stored in advance in the output unit 47 according to the imaging direction of the endoscope 11 such as the center of the image, for example. In order to make it easier for the surgeon to understand the corresponding location, the CT images 93a to 93c preferably display a plurality of different cross sections (preferably cross sections that are orthogonal to each other). In FIG. 12, the CT image 93a has a cross section, the CT image 93b has a coronal section, and the CT image 93c has a sagittal section. Further, in the CT images 93 a to 93 c, in addition to the intersection information (indicated by a square 95 of a different color from the image), the direction in which the endoscope 11 is inserted (light that is the imaging direction of the endoscope 11). It is desirable to show axis 96.

上記のS06〜S10までの処理は、例えば、1秒間間隔等の等間隔で繰り返し行われる。なお、PC40におけるS03〜S05の処理と、S06〜S10の処理とは異なっているが、例えば、S05の座標軸の一致の処理が行われたら、自動的にS06以降の処理に移るようにしてもよい。また、術者等の操作により処理の切替が行われてもよい。   The processes from S06 to S10 are repeatedly performed at equal intervals such as 1 second. In addition, although the process of S03-S05 and the process of S06-S10 in PC40 are different, for example, if the process of matching the coordinate axes of S05 is performed, the process may be automatically shifted to the process after S06. Good. Further, the process may be switched by an operation of an operator or the like.

また、S03〜S05の処理による初回の位置合わせ後に患者60の頭部を動かした場合でも、再度S03〜S05の処理を行い改めて位置合わせを行なうこととすればよい。再度の位置合わせは、例えば、術者等の操作により行われてもよいし、位置合わせしたときの画像とその後の画像とを比較して、頭部が動いたことを検出して、それをトリガとして行われてもよい。   Further, even when the head of the patient 60 is moved after the initial alignment by the processing of S03 to S05, the processing of S03 to S05 may be performed again to perform alignment again. The re-alignment may be performed, for example, by an operation of an operator or the like, or the image at the time of alignment is compared with the subsequent image to detect that the head has moved, and It may be performed as a trigger.

上述したように、本実施形態に係る手術支援情報表示装置1(手術支援情報表示方法)では、第1の三次元形状と第2の三次元形状とを位置合わせする際に、対応点を算出する範囲が限定されるので、対応点を第2の三次元形状全体から算出する場合と比較して、対応点の算出に要する時間が短縮される。なお、この際、基準点は任意に設定可能である。また、対応点の算出にあたり、人為的操作は介在しない。その結果、第1の三次元形状と第2の三次元形状とを位置合わせする際の精度及び効率を維持しつつ、その位置合わせに要する計算時間を短縮することができる。   As described above, in the surgery support information display device 1 (surgery support information display method) according to the present embodiment, the corresponding points are calculated when the first three-dimensional shape and the second three-dimensional shape are aligned. Since the range to be used is limited, the time required for calculating the corresponding point is reduced as compared with the case where the corresponding point is calculated from the entire second three-dimensional shape. At this time, the reference point can be arbitrarily set. In addition, no artificial operation is involved in calculating the corresponding points. As a result, it is possible to shorten the calculation time required for the alignment while maintaining the accuracy and efficiency in aligning the first three-dimensional shape and the second three-dimensional shape.

このような効果は、形状を構成する要素(点)の数が多ければ多いほど顕著である。例えば、それぞれ数十万個の点で構成されている第1の三次元形状及び第2の三次元形状について、第1の三次元形状上の全点を基準点に設定して位置合わせをした場合、従来法(第2の三次元形状の全範囲から対応点を算出する方法)と比較し、10-4から10-5程度の時間短縮が可能である。 Such an effect becomes more remarkable as the number of elements (points) constituting the shape increases. For example, the first three-dimensional shape and the second three-dimensional shape each composed of hundreds of thousands of points are aligned by setting all the points on the first three-dimensional shape as reference points. In this case, the time can be reduced by about 10 −4 to 10 −5 as compared with the conventional method (a method for calculating corresponding points from the entire range of the second three-dimensional shape).

また、対応点算出部44cは、例えば図5に示すように、算出済の対応点Maを中心とし、当該対応点Maの位置と、基準点Pbの位置と、曲線mの最短距離場とに基づいて算出される値(l’+d)を半径rとする円Cを限定された範囲とする。加えて、座標軸一致部44は、例えば図5に示すように、算出済の対応点Maを中心とし、当該対応点Maの位置と、基準点Paの位置と、基準点Pbの位置と、曲線mの最短距離場とに基づいて算出される値(l+l’+d)を半径rとする円Cを限定された範囲とすることもできる。これにより、未知の対応点Mbを算出するための限定された範囲(円C)が設定されるので、より早くその対応点Mbを算出することができる。このことは、他の対応点を算出する場合も同様である。 For example, as shown in FIG. 5, the corresponding point calculation unit 44c uses the calculated corresponding point Ma as the center, the position of the corresponding point Ma, the position of the reference point Pb, and the shortest distance field of the curve m. A circle C having a radius r of a value (l ′ + d) calculated based on the value is defined as a limited range. In addition, as shown in FIG. 5, for example, the coordinate axis matching unit 44 is centered on the calculated corresponding point Ma, the position of the corresponding point Ma, the position of the reference point Pa, the position of the reference point Pb, and a curve A circle C having a radius r of a value (l + l ′ + d p ) calculated based on the shortest distance field of m may be a limited range. Thereby, since the limited range (circle C) for calculating the unknown corresponding point Mb is set, the corresponding point Mb can be calculated earlier. The same applies to the calculation of other corresponding points.

引き続いて、上述した一連の手術支援情報の表示を行う処理をコンピュータに実行させるための手術支援情報表示プログラムを説明する。図13に示すように、手術支援情報表示プログラム82は、コンピュータが備える記録媒体80に形成されたプログラム格納領域80a内に格納されている。   Subsequently, a description will be given of a surgery support information display program for causing a computer to execute the processing for displaying the series of surgery support information described above. As shown in FIG. 13, the surgery support information display program 82 is stored in a program storage area 80a formed in a recording medium 80 provided in the computer.

手術支援情報表示プログラム81は、手術支援情報の表示処理を統括的に制御するメインモジュール810と、患者形状取得モジュール811と、撮像画像取得モジュール812と、表面形状算出モジュール813と、座標軸一致モジュール814と、内視鏡光軸算出モジュール815と、交点算出モジュール816と、出力モジュール817とを備えて構成される。座標軸一致モジュール814は、情報受付モジュール814a、基準点設定モジュール814b、対応点算出モジュール814c及び位置合わせモジュール814dを有している。患者形状取得モジュール811、撮像画像取得モジュール812、表面形状算出モジュール813、座標軸一致モジュール814、基準点設定モジュール814b、対応点算出モジュール814c、位置合わせモジュール814d、内視鏡光軸算出モジュール815、交点算出モジュール816及び出力モジュール817を実行させることにより実現される機能は、上述したPC40の患者形状取得部41、撮像画像取得部42、表面形状算出部43、座標軸一致部44、情報受付部44a、基準点設定部44b、対応点算出部44c、位置合わせ部44d、内視鏡光軸算出部45、交点算出部46及び出力部47の機能とそれぞれ同様である。   The surgery support information display program 81 includes a main module 810 that comprehensively controls a display process of surgery support information, a patient shape acquisition module 811, a captured image acquisition module 812, a surface shape calculation module 813, and a coordinate axis matching module 814. An endoscope optical axis calculation module 815, an intersection calculation module 816, and an output module 817. The coordinate axis matching module 814 includes an information receiving module 814a, a reference point setting module 814b, a corresponding point calculating module 814c, and an alignment module 814d. Patient shape acquisition module 811, captured image acquisition module 812, surface shape calculation module 813, coordinate axis matching module 814, reference point setting module 814b, corresponding point calculation module 814c, alignment module 814d, endoscope optical axis calculation module 815, intersection Functions realized by executing the calculation module 816 and the output module 817 include the above-described patient shape acquisition unit 41, captured image acquisition unit 42, surface shape calculation unit 43, coordinate axis matching unit 44, information reception unit 44a of the PC 40, Functions of the reference point setting unit 44b, the corresponding point calculation unit 44c, the alignment unit 44d, the endoscope optical axis calculation unit 45, the intersection calculation unit 46, and the output unit 47 are the same.

なお、手術支援情報表示プログラム81は、その一部若しくは全部が、通信回線等の伝送媒体を介して伝送され、他の機器により受信されて記録(インストールを含む)される構成としてもよい。   The surgery support information display program 81 may be partly or wholly transmitted via a transmission medium such as a communication line, received by another device, and recorded (including installation).

以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で以下のような様々な変形が可能である。   The present invention has been described in detail based on the embodiments. However, the present invention is not limited to the above embodiment. The present invention can be modified in various ways as described below without departing from the scope of the invention.

上記実施形態では、本発明に係る形状情報処理方法、形状情報処理装置及び形状情報処理プログラムを、手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラムに適用したが、これら形状情報処理方法、形状情報処理装置及び形状情報処理プログラムは、様々な研究開発分野・産業分野に適用可能である。応用例としては、例えば、CAD、部品表面の品質検査、試作モデルの製作、ロボットの自律移動制御が挙げられるが、当然ながら、これらに限定されるものではない。   In the above embodiment, the shape information processing method, the shape information processing apparatus, and the shape information processing program according to the present invention are applied to the surgery support information display device, the surgery support information display method, and the surgery support information display program. The processing method, shape information processing apparatus, and shape information processing program are applicable to various research and development fields and industrial fields. Application examples include, for example, CAD, component surface quality inspection, production of a prototype model, and autonomous movement control of the robot, but of course not limited thereto.

本発明の実施形態に係る手術支援情報表示装置の構成を示す図である。It is a figure which shows the structure of the surgery assistance information display apparatus which concerns on embodiment of this invention. 撮像装置により撮像され、情報処理されて三次元位置情報を持った、患者の顔面の画像を示す図である。It is a figure which shows the image of a patient's face which was imaged with the imaging device, was information-processed, and had 3D position information. CT装置により取得されたCT画像を示す図である。It is a figure which shows CT image acquired by CT apparatus. 図1に示す座標軸一致部の構成を示す図である。It is a figure which shows the structure of the coordinate-axis matching part shown in FIG. 図1に示す座標軸一致部の処理の概念を示す図である。It is a figure which shows the concept of a process of the coordinate axis matching part shown in FIG. 本発明の実施形態に係る手術支援情報表示装置での処理を示すフローチャートである。It is a flowchart which shows the process in the surgery assistance information display apparatus which concerns on embodiment of this invention. CT装置による患者の三次元形状を示す情報と、撮像装置による画像から算出された患者の三次元形状を示す情報とのマッチング処理を示す図である。It is a figure which shows the matching process of the information which shows the patient's three-dimensional shape by CT apparatus, and the information which shows the patient's three-dimensional shape calculated from the image by an imaging device. 図6に示す座標軸一致処理を示すフローチャートである。It is a flowchart which shows the coordinate axis matching process shown in FIG. 撮像装置による画像から標識球の三次元座標を算出する処理を示した図である。It is the figure which showed the process which calculates the three-dimensional coordinate of a marker ball from the image by an imaging device. 患者の面を構成する三角形と内視鏡の撮像方向である光軸を示す半直線との交点を示した図である。It is the figure which showed the intersection of the triangle which comprises a patient's surface, and the half line which shows the optical axis which is the imaging direction of an endoscope. 内視鏡により撮像されている点が示されたCT画像を示す図である。It is a figure which shows the CT image in which the point imaged with the endoscope was shown. 内視鏡により撮像されている点が示されたCT画像、及び内視鏡により撮像されている画像を示す図である。It is a figure which shows the CT image in which the point imaged with the endoscope was shown, and the image imaged with the endoscope. 本発明に係る手術支援情報表示プログラムの構成を示す図である。It is a figure which shows the structure of the surgery assistance information display program which concerns on this invention.

符号の説明Explanation of symbols

1…手術支援情報表示装置、11…内視鏡、12…標識球、20…撮像装置、30…CT装置、40…PC、41…患者形状取得部、42…撮像画像取得部、43…表面形状算出部、44…座標軸一致部、44a…情報受付部、44b…基準点設定部、44c…対応点算出部、44d…位置合わせ部、45…内視鏡光軸算出部、46…交点算出部、47…出力部、50…モニタ、60…患者、70…手術台、80…記録媒体、80a…プログラム格納領域、81…手術支援情報表示プログラム、810…メインモジュール、811…患者形状取得モジュール、812…撮像画像取得モジュール、813…表面形状算出モジュール、814…座標軸一致モジュール、814a…情報受付モジュール、814b…基準点設定モジュール、814c…対応点算出モジュール、814d…位置合わせモジュール、815…内視鏡光軸算出モジュール、816…交点算出モジュール、817…出力モジュール。   DESCRIPTION OF SYMBOLS 1 ... Surgery support information display apparatus, 11 ... Endoscope, 12 ... Marking ball, 20 ... Imaging apparatus, 30 ... CT apparatus, 40 ... PC, 41 ... Patient shape acquisition part, 42 ... Captured image acquisition part, 43 ... Surface Shape calculation unit 44 ... Coordinate axis matching unit 44a ... Information receiving unit 44b ... Reference point setting unit 44c ... Corresponding point calculation unit 44d ... Positioning unit 45 ... Endoscope optical axis calculation unit 46 ... Intersection calculation , 47 ... output unit, 50 ... monitor, 60 ... patient, 70 ... operating table, 80 ... recording medium, 80a ... program storage area, 81 ... surgery support information display program, 810 ... main module, 811 ... patient shape acquisition module 812, a captured image acquisition module, 813, a surface shape calculation module, 814, a coordinate axis matching module, 814a, an information reception module, 814b, a reference point setting module, 814c. Corresponding point calculation module, 814d ... positioning module, 815 ... endoscope optical axis calculating module, 816 ... intersection calculation module, 817 ... output module.

Claims (6)

第1の形状を示す第1の情報、及び第2の形状を示す第2の情報の入力を受け付ける受付ステップと、
前記受付ステップにおいて受け付けられた第1の情報で示される第1の形状、及び前記受付ステップにおいて受け付けられた第2の情報で示される第2の形状のうち一方の形状上に複数の基準点を設ける設定ステップと、
前記設定ステップにおいて設定された複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の形状の限定された範囲から算出する算出ステップと、
前記設定ステップにおいて設定された複数の基準点と、前記算出ステップにおいて算出された複数の対応点との位置関係に基づいて、前記第1の情報又は前記第2の情報を変換することで、前記第1の形状と前記第2の形状とを位置合わせする位置合わせステップと、
を含む形状情報処理方法。
An accepting step for accepting input of first information indicating a first shape and second information indicating a second shape;
A plurality of reference points are placed on one of the first shape indicated by the first information received in the reception step and the second shape indicated by the second information received in the reception step. A setting step to be provided;
For each of the plurality of reference points set in the setting step, a calculation step for calculating a corresponding point at the shortest distance from the reference point from a limited range of the other shape;
By converting the first information or the second information based on the positional relationship between the plurality of reference points set in the setting step and the plurality of corresponding points calculated in the calculation step, An alignment step of aligning the first shape and the second shape;
Shape information processing method including
前記算出ステップは、第1の前記基準点に対応する算出済の前記対応点の位置と、当該第1の基準点とは異なる第2の前記基準点の位置とに基づいて、当該算出済の対応点を中心とする範囲を算出し、当該範囲を、前記第2の基準点から最短距離にある対応点を算出するための前記限定された範囲とする、
請求項1に記載の形状情報処理方法。
The calculation step is based on the calculated position of the corresponding point corresponding to the first reference point and the position of the second reference point different from the first reference point. Calculating a range centered on the corresponding point, and setting the range as the limited range for calculating the corresponding point at the shortest distance from the second reference point;
The shape information processing method according to claim 1.
前記限定された範囲は、前記算出済の対応点を中心とし、前記第2の基準点の位置と前記他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、前記第2の基準点と前記算出済の対応点との距離とを加算した値を半径とする範囲である、
請求項2に記載の形状情報処理方法。
The limited range is a distance defined on the basis of the position of the second reference point and the shortest distance field indicating a predetermined neighboring space of the other three-dimensional shape with the calculated corresponding point as the center. And a range having a radius of a value obtained by adding the distance between the second reference point and the calculated corresponding point.
The shape information processing method according to claim 2.
前記限定された範囲は、前記算出済の対応点を中心とし、前記第1の基準点と前記算出済の対応点との距離と、前記第2の基準点の位置と前記他方の三次元形状の所定の近傍空間を示す最短距離場とに基づいて定義される距離と、前記第1の基準点と前記第2の基準点との距離とを加算した値を半径とする範囲である、
請求項2に記載の形状情報処理方法。
The limited range is centered on the calculated corresponding point, the distance between the first reference point and the calculated corresponding point, the position of the second reference point, and the other three-dimensional shape. A distance defined based on the shortest distance field indicating a predetermined neighborhood space and a value obtained by adding the distance between the first reference point and the second reference point as a radius.
The shape information processing method according to claim 2.
第1の形状を示す第1の情報、及び第2の形状を示す第2の情報の入力を受け付ける受付手段と、
前記受付手段により受け付けられた第1の情報で示される第1の形状、及び前記受付手段により受け付けられた第2の情報で示される第2の形状のうち一方の形状上に複数の基準点を設ける設定手段と、
前記設定手段により設定された複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の形状の限定された範囲から算出する算出手段と、
前記設定手段により設定された複数の基準点と、前記算出手段により算出された複数の対応点との位置関係に基づいて、前記第1の情報又は前記第2の情報を変換することで、前記第1の形状と前記第2の形状とを位置合わせする位置合わせ手段と、
を備える形状情報処理装置。
Receiving means for receiving input of first information indicating a first shape and second information indicating a second shape;
A plurality of reference points are placed on one of the first shape indicated by the first information received by the receiving means and the second shape indicated by the second information received by the receiving means. Setting means to be provided;
For each of a plurality of reference points set by the setting means, a calculation means for calculating a corresponding point at the shortest distance from the reference point from a limited range of the other shape;
By converting the first information or the second information based on the positional relationship between a plurality of reference points set by the setting means and a plurality of corresponding points calculated by the calculation means, Alignment means for aligning the first shape and the second shape;
A shape information processing apparatus comprising:
第1の形状を示す第1の情報、及び第2の形状を示す第2の情報の入力を受け付ける受付機能と、
前記受付機能により受け付けられた第1の情報で示される第1の形状、及び前記受付機能により受け付けられた第2の情報で示される第2の形状のうち一方の形状上に複数の基準点を設ける設定機能と、
前記設定機能により設定された複数の基準点のそれぞれについて、当該基準点から最短距離にある対応点を他方の形状の限定された範囲から算出する算出機能と、
前記設定機能により設定された複数の基準点と、前記算出機能により算出された複数の対応点との位置関係に基づいて、前記第1の情報又は前記第2の情報を変換することで、前記第1の形状と前記第2の形状とを位置合わせする位置合わせ機能と、
をコンピュータに実行させる形状情報処理プログラム。
A reception function for receiving input of first information indicating a first shape and second information indicating a second shape;
A plurality of reference points are placed on one of the first shape indicated by the first information received by the receiving function and the second shape indicated by the second information received by the receiving function. A setting function to be provided;
For each of a plurality of reference points set by the setting function, a calculation function for calculating a corresponding point at the shortest distance from the reference point from a limited range of the other shape;
By converting the first information or the second information based on the positional relationship between a plurality of reference points set by the setting function and a plurality of corresponding points calculated by the calculation function, An alignment function for aligning the first shape and the second shape;
Shape information processing program for causing a computer to execute.
JP2008073890A 2007-03-20 2008-03-21 Shape information processing method, shape information processing apparatus, and shape information processing program Expired - Fee Related JP5219129B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008073890A JP5219129B2 (en) 2007-03-20 2008-03-21 Shape information processing method, shape information processing apparatus, and shape information processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007073557 2007-03-20
JP2007073557 2007-03-20
JP2008073890A JP5219129B2 (en) 2007-03-20 2008-03-21 Shape information processing method, shape information processing apparatus, and shape information processing program

Publications (2)

Publication Number Publication Date
JP2008262555A true JP2008262555A (en) 2008-10-30
JP5219129B2 JP5219129B2 (en) 2013-06-26

Family

ID=39984948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008073890A Expired - Fee Related JP5219129B2 (en) 2007-03-20 2008-03-21 Shape information processing method, shape information processing apparatus, and shape information processing program

Country Status (1)

Country Link
JP (1) JP5219129B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011019768A (en) * 2009-07-16 2011-02-03 Kyushu Institute Of Technology Image processor, image processing method and image processing program
JP2012032370A (en) * 2010-07-29 2012-02-16 Sharp Corp Defect detection method, defect detection apparatus, learning method, program, and recording medium
WO2012121341A1 (en) * 2011-03-09 2012-09-13 国立大学法人大阪大学 Image data processing device and transcranial magnetic stimulation apparatus
JP2012235983A (en) * 2011-05-13 2012-12-06 Olympus Medical Systems Corp Medical image display system
JP2014169947A (en) * 2013-03-05 2014-09-18 Hitachi Ltd Shape inspection method and device thereof
WO2014196069A1 (en) * 2013-06-06 2014-12-11 株式会社日立製作所 Image processing device and image processing method
CN110769731A (en) * 2017-06-15 2020-02-07 奥林巴斯株式会社 Endoscope system and method for operating endoscope system
JP6993043B1 (en) * 2020-10-27 2022-01-13 リバーフィールド株式会社 Surgical support device

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200100694027; 喜多 泰代: '3次元血管モデルのX線画像への実時間位置合せ手法' 電子情報通信学会論文誌 第J83-D-II巻 第1号, 20000125, pp.254-262, 社団法人電子情報通信学会 *
CSNG200700082006; 宇戸 寿幸: '多重解像度解析を用いた距離画像の高速な位置合わせ' 電子情報通信学会技術研究報告 第105巻 第177号, 20050708, pp.33-38, 社団法人電子情報通信学会 *
JPN6012039116; 喜多 泰代: '3次元血管モデルのX線画像への実時間位置合せ手法' 電子情報通信学会論文誌 第J83-D-II巻 第1号, 20000125, pp.254-262, 社団法人電子情報通信学会 *
JPN6012039117; 宇戸 寿幸: '多重解像度解析を用いた距離画像の高速な位置合わせ' 電子情報通信学会技術研究報告 第105巻 第177号, 20050708, pp.33-38, 社団法人電子情報通信学会 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011019768A (en) * 2009-07-16 2011-02-03 Kyushu Institute Of Technology Image processor, image processing method and image processing program
JP2012032370A (en) * 2010-07-29 2012-02-16 Sharp Corp Defect detection method, defect detection apparatus, learning method, program, and recording medium
US9993655B2 (en) 2011-03-09 2018-06-12 Osaka University Image data processing device and transcranial magnetic stimulation apparatus
WO2012121341A1 (en) * 2011-03-09 2012-09-13 国立大学法人大阪大学 Image data processing device and transcranial magnetic stimulation apparatus
JPWO2012121341A1 (en) * 2011-03-09 2014-07-17 国立大学法人大阪大学 Image data processing apparatus and transcranial magnetic stimulation apparatus
JP2012235983A (en) * 2011-05-13 2012-12-06 Olympus Medical Systems Corp Medical image display system
JP2014169947A (en) * 2013-03-05 2014-09-18 Hitachi Ltd Shape inspection method and device thereof
WO2014196069A1 (en) * 2013-06-06 2014-12-11 株式会社日立製作所 Image processing device and image processing method
CN105246409A (en) * 2013-06-06 2016-01-13 株式会社日立制作所 Image processing device and image processing method
JPWO2014196069A1 (en) * 2013-06-06 2017-02-23 株式会社日立製作所 Image processing apparatus and image processing method
CN110769731A (en) * 2017-06-15 2020-02-07 奥林巴斯株式会社 Endoscope system and method for operating endoscope system
JP6993043B1 (en) * 2020-10-27 2022-01-13 リバーフィールド株式会社 Surgical support device
WO2022091210A1 (en) * 2020-10-27 2022-05-05 リバーフィールド株式会社 Surgery assisting device

Also Published As

Publication number Publication date
JP5219129B2 (en) 2013-06-26

Similar Documents

Publication Publication Date Title
JP5219129B2 (en) Shape information processing method, shape information processing apparatus, and shape information processing program
JP5283157B2 (en) Surgery support information display device, surgery support information display method, and surgery support information display program
US20210285759A1 (en) Laser enhanced reconstruction of 3d surface
JP5137033B2 (en) Surgery support information display device, surgery support information display method, and surgery support information display program
US20110282151A1 (en) Image-based localization method and system
JP5158223B2 (en) 3D modeling apparatus, 3D modeling method, and program
US10692214B2 (en) Method and apparatus to generate and track standardized anatomical regions automatically
JP5024410B2 (en) 3D modeling apparatus, 3D modeling method, and program
JP5355074B2 (en) 3D shape data processing apparatus, 3D shape data processing method and program
US20120082351A1 (en) Fast 3d-2d image registration method with application to continuously guided endoscopy
JP2013519417A5 (en)
US20110187824A1 (en) Endoscope apparatus and measurement method
CN104000655A (en) Combined surface reconstruction and registration for laparoscopic surgery
JP5263437B2 (en) 3D modeling apparatus, 3D modeling method, and program
JP2015232771A (en) Face detection method, face detection system and face detection program
Ben-Hamadou et al. Construction of extended 3D field of views of the internal bladder wall surface: A proof of concept
CN115919461A (en) SLAM-based surgical navigation method
JP6646133B2 (en) Image processing device and endoscope
CN108430302B (en) Image processing apparatus, image processing method, and storage medium
US9542772B2 (en) Virtual endoscope image-generating device, method, and program
JP2006059165A (en) Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
JP2007322403A (en) Image processing apparatus and its processing method
JP2011149952A (en) Model input device and model generation system
JP5904976B2 (en) 3D data processing apparatus, 3D data processing method and program
US20230240762A1 (en) Method and device for segmentation and registration of an anatomical structure

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5219129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees