JP6290723B2 - Surgery support device and surgery support system - Google Patents

Surgery support device and surgery support system Download PDF

Info

Publication number
JP6290723B2
JP6290723B2 JP2014128555A JP2014128555A JP6290723B2 JP 6290723 B2 JP6290723 B2 JP 6290723B2 JP 2014128555 A JP2014128555 A JP 2014128555A JP 2014128555 A JP2014128555 A JP 2014128555A JP 6290723 B2 JP6290723 B2 JP 6290723B2
Authority
JP
Japan
Prior art keywords
image
dimensional
acquisition unit
moving image
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014128555A
Other languages
Japanese (ja)
Other versions
JP2016007277A (en
Inventor
生馬 佐藤
生馬 佐藤
雄一 藤野
雄一 藤野
鈴木 孝司
孝司 鈴木
善浩 村垣
善浩 村垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Womens Medical University
Future University Hakodate
Original Assignee
Tokyo Womens Medical University
Future University Hakodate
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Womens Medical University, Future University Hakodate filed Critical Tokyo Womens Medical University
Priority to JP2014128555A priority Critical patent/JP6290723B2/en
Publication of JP2016007277A publication Critical patent/JP2016007277A/en
Application granted granted Critical
Publication of JP6290723B2 publication Critical patent/JP6290723B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、手術支援装置および手術支援システムに関する。   The present invention relates to a surgery support apparatus and a surgery support system.

従来より、例えば脳神経外科手術において、術野を写す顕微鏡画像上に3次元のMRI(Magnetic Resonance Imaging;核磁気共鳴画像法)画像等の再構成画像の一部を投影し、重畳して提示する手術支援技術が提案されている。   Conventionally, for example, in neurosurgery, a part of a reconstructed image such as a three-dimensional MRI (Magnetic Resonance Imaging) image is projected on a microscopic image showing an operative field and presented in a superimposed manner. Surgery support technology has been proposed.

P. J. Edwards et al,. Design and Evaluation of a system for Microscope-Assisted Guided Interventions(MAGI), MICCAI'99, LNCS 1679, pp. 842--852, 1999.P. J. Edwards et al, .Design and Evaluation of a system for Microscope-Assisted Guided Interventions (MAGI), MICCAI'99, LNCS 1679, pp. 842--852, 1999.

一般に、顕微鏡画像にMRI画像を重畳するためには、顕微鏡画像とMRI画像とに共通する被写体を用いてレジストレーション(Registration;位置合わせ)が必要となる。従来の手術支援技術においては、例えば顕微鏡の倍率情報をレジストレーションに利用しているため、そのような情報を出力可能な専用の装置を用いてレジストレーションが実現される。このような専用の装置は一般に高価であるため、既存の顕微鏡装置を用いて重畳表示を実現することができれば、より多くの医療現場に手術支援技術を導入することができる。   In general, in order to superimpose an MRI image on a microscope image, registration (Registration) is required using a subject common to the microscope image and the MRI image. In the conventional surgery support technology, for example, magnification information of a microscope is used for registration. For this reason, registration is realized using a dedicated device that can output such information. Since such a dedicated device is generally expensive, if a superimposed display can be realized using an existing microscope device, a surgical support technique can be introduced into more medical sites.

本発明は、このような課題に鑑みてなされたものであり、その目的は、2次元顕微鏡画像上に3次元の再構成画像を簡便に投影して重畳表示する技術を提供することにある。   The present invention has been made in view of such problems, and an object thereof is to provide a technique for easily projecting and superimposing a three-dimensional reconstructed image on a two-dimensional microscope image.

上記課題を解決するために、本発明のある態様の手術支援装置は、被術者の術部を含む領域の再構成画像を取得する医用画像取得部と、手術に用いられる術具の3次元的な位置座標を取得する3次元座標取得部と、再構成画像に設定された画像座標系の座標を、3次元座標取得部が位置座標計測に用いる座標系の座標に変換する第1変換行列を取得する第1変換行列取得部と、被術者の術野を撮影した2次元動画像を取得する動画取得部と、動画取得部が取得した動画像に設定された2次元座標系における術具の2次元的な位置座標を取得する画像解析部と、3次元座標取得部が取得した術具の3次元的な位置座標と、画像解析部が取得した術具の2次元的な位置座標とをもとに、3次元的な位置座標を2次元的な位置座標に変換する第2変換行列を推定する第2変換行列取得部と、第1変換行列と第2変換行列とを用いて、再構成画像の少なくとも一部を2次元動画像上に2次元画像として重畳する画像重畳部とを備える。画像解析部は、動画取得部が取得する動画像を解析して動画像の画角または視線方向の少なくとも一方が変更されたか否かを検出し、第2変換行列取得部は、画像解析部が画角または視線方向の少なくとも一方の変更を検出することを契機として、第2変換行列を推定する。   In order to solve the above-described problems, a surgery support apparatus according to an aspect of the present invention includes a medical image acquisition unit that acquires a reconstructed image of a region including a surgical part of a subject, and a three-dimensional surgical tool used for surgery. A three-dimensional coordinate acquisition unit that acquires typical position coordinates, and a first conversion matrix that converts coordinates of the image coordinate system set in the reconstructed image into coordinates of a coordinate system used for position coordinate measurement by the three-dimensional coordinate acquisition unit A first transformation matrix acquisition unit that acquires the image, a moving image acquisition unit that acquires a two-dimensional moving image obtained by imaging the surgical field of the subject, and a technique in the two-dimensional coordinate system set for the moving image acquired by the moving image acquisition unit An image analysis unit that acquires the two-dimensional position coordinates of the tool, a three-dimensional position coordinate of the surgical tool acquired by the three-dimensional coordinate acquisition unit, and a two-dimensional position coordinate of the surgical tool acquired by the image analysis unit Based on the above, the second variation that converts 3D position coordinates to 2D position coordinates A second transformation matrix obtaining unit that estimates a matrix, an image superimposing unit that superimposes at least a part of the reconstructed image on the two-dimensional moving image as a two-dimensional image using the first transformation matrix and the second transformation matrix; Is provided. The image analysis unit analyzes the moving image acquired by the moving image acquisition unit to detect whether at least one of the angle of view or the line-of-sight direction of the moving image has been changed. The second conversion matrix acquisition unit The second transformation matrix is estimated by detecting at least one change in the angle of view or the line-of-sight direction.

本発明の別の態様は、手術支援システムである。この手術支援システムは、手術に用いられる術具の3次元的な位置座標を計測する3次元計測装置と、被術者の術野を撮影して2次元動画像を生成する顕微鏡と、情報処理装置とを備える。情報処理装置は、被術者の術部を含む領域の再構成画像を取得する医用画像取得部と、3次元計測装置が計測した3次元的な位置座標を取得する3次元計測部と、顕微鏡が生成した動画像を取得する動画取得部と、再構成画像に設定された画像座標系の座標を、3次元計測部が位置座標計測に用いる座標系の座標に変換する第1変換行列を取得する第1変換行列取得部と、顕微鏡が生成する動画像に設定された2次元座標系における術具の2次元的な位置座標を取得する画像解析部と、3次元計測部が取得した術具の3次元的な位置座標と、画像解析部が取得した術具の2次元的な位置座標とをもとに、3次元的な位置座標を2次元的な位置座標に変換する第2変換行列を推定する第2変換行列取得部と、第1変換行列と第2変換行列とを用いて、再構成画像の少なくとも一部を2次元動画像上に2次元画像として重畳する画像重畳部とを備える。画像解析部は、動画取得部が撮影する動画像を解析して動画取得部の画角または視線方向の少なくとも一方が変更されたか否かを検出し、第2変換行列取得部は、画像解析部が画角または視線方向の少なくとも一方の変更を検出することを契機として、第2変換行列を推定する。   Another aspect of the present invention is a surgery support system. The surgical operation support system includes a three-dimensional measurement device that measures three-dimensional position coordinates of a surgical instrument used for surgery, a microscope that captures a surgical field of a subject and generates a two-dimensional moving image, and information processing Device. An information processing apparatus includes a medical image acquisition unit that acquires a reconstructed image of a region including a surgical part of a subject, a three-dimensional measurement unit that acquires three-dimensional position coordinates measured by the three-dimensional measurement device, and a microscope Acquires a moving image acquisition unit that acquires a moving image generated by the image processing unit, and a first conversion matrix that converts the coordinates of the image coordinate system set in the reconstructed image into coordinates of a coordinate system used for position coordinate measurement by the three-dimensional measurement unit A first transformation matrix acquisition unit, an image analysis unit for acquiring a two-dimensional position coordinate of the surgical tool in a two-dimensional coordinate system set in a moving image generated by the microscope, and a surgical tool acquired by the three-dimensional measurement unit And a second conversion matrix for converting the three-dimensional position coordinates into the two-dimensional position coordinates based on the three-dimensional position coordinates of the tool and the two-dimensional position coordinates of the surgical instrument acquired by the image analysis unit. The second transformation matrix acquisition unit for estimating the first transformation matrix and the second transformation matrix Te, and an image superimposing unit that superimposes a two-dimensional image at least a portion of the reconstructed image on a 2D video. The image analysis unit analyzes the moving image captured by the moving image acquisition unit to detect whether at least one of the angle of view or the line-of-sight direction of the moving image acquisition unit has been changed, and the second conversion matrix acquisition unit The second transformation matrix is estimated by detecting a change in at least one of the angle of view or the line-of-sight direction.

本発明によれば、2次元顕微鏡画像上に3次元医用画像を簡便に投影して重畳表示することができる。   According to the present invention, a three-dimensional medical image can be easily projected and superimposed on a two-dimensional microscope image.

実施の形態に係る手術支援システムの全体構成を模式的に示す図である。It is a figure which shows typically the whole structure of the surgery assistance system which concerns on embodiment. 実施の形態に係る手術支援システムで用いる複数の座標系と、座標系間の変換行列とを模式的に示す図である。It is a figure which shows typically the several coordinate system used with the surgery assistance system which concerns on embodiment, and the conversion matrix between coordinate systems. ピンホールカメラモデルに基づく透視投影を模式的に示す図である。It is a figure which shows typically perspective projection based on a pinhole camera model. ワールド座標系とカメラ座標系との関係を模式的に示す図である。It is a figure which shows typically the relationship between a world coordinate system and a camera coordinate system. 実施の形態に係る手術支援装置の機能構成を模式的に示す図である。It is a figure which shows typically the function structure of the surgery assistance apparatus which concerns on embodiment. 実施の形態に係る画像解析部の機能構成を模式的に示す図である。It is a figure which shows typically the function structure of the image analysis part which concerns on embodiment. 実施の形態に係る手術支援方法の流れを説明するフローチャートである。It is a flowchart explaining the flow of the surgery assistance method which concerns on embodiment. 実施の形態に係る動画像解析処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the moving image analysis process which concerns on embodiment.

インテリジェント手術室での手術ナビゲーションシステムにより、高精度な手術が可能となり脳腫瘍摘出率向上および五年後生存率が向上した。しかし、脳の悪性腫瘍に対しては完全な腫瘍摘出は難しく、五年後生存率は未だ低い。これは、悪性腫瘍は脳の正常な部位との境界が肉眼ではわかりにくく、そして、傷つけてはならない神経・血管などが複雑に絡み合っているためである。このため、さらなる工学的支援が必要とされている。   Surgical navigation system in the intelligent operating room enables high-precision surgery, improving the removal rate of brain tumors and improving the survival rate after 5 years. However, complete tumor removal is difficult for malignant tumors of the brain, and the survival rate after 5 years is still low. This is because malignant tumors are difficult to see with the naked eye at the boundary with the normal part of the brain, and nerves and blood vessels that should not be damaged are intertwined in a complex manner. For this reason, further engineering support is needed.

直感的な位置情報を提示可能な顕微鏡重畳表示ナビゲーションシステムが報告されている[1][2]。これは、顕微鏡内のカメラに患者のMRI画像を重畳表示することで術者に腫瘍・神経・血管などの位置情報を直感的に提示可能としたシステムである。しかしながら、重畳表示するために事前に顕微鏡カメラに対し、カメラ較正器を用いてカメラキャリブレーションを行う必要あり、全ての倍率に対応していないため全倍率で高精度に重畳表示ができない。また、顕微鏡は倍率を逐一出力することが可能であること、そして、顕微鏡の位置・姿勢を知るためにマーカ付きの専用の顕微鏡である必要があることが問題となる。 A microscope superimposed display navigation system capable of presenting intuitive position information has been reported [1] [2] . This is a system that allows an operator to intuitively present position information such as a tumor, a nerve, and a blood vessel to a surgeon by superimposing and displaying an MRI image of a patient on a camera in a microscope. However, it is necessary to perform camera calibration on the microscope camera in advance using a camera calibrator in order to perform superimposition display, and since it does not support all magnifications, superimposition display cannot be performed with high accuracy at all magnifications. In addition, there is a problem that the microscope can output the magnification one by one and that it is necessary to be a dedicated microscope with a marker in order to know the position and orientation of the microscope.

本発明実施の形態に係る手術支援システムは、手術中にナビゲーションシステムから得られる術具位置情報を用いてカメラキャリブレーションをリアルタイムで実現する。これのため、本発明に係る手術支援システムは、事前にカメラ較正器具によるカメラキャリブレーションの必要がなく、リアルタイムに倍率、位置・姿勢情報が得られるため、専用の顕微鏡ではなくとも使用可能となる。   The surgery support system according to the embodiment of the present invention realizes camera calibration in real time using surgical instrument position information obtained from a navigation system during surgery. For this reason, the surgery support system according to the present invention does not require camera calibration with a camera calibration tool in advance, and magnification and position / posture information can be obtained in real time, so that it can be used without using a dedicated microscope. .

以下、本発明の実施の形態に係る手術支援システムについて、添付図面を参照しながらより詳細に説明する。   Hereinafter, a surgery support system according to an embodiment of the present invention will be described in more detail with reference to the accompanying drawings.

図1は、本発明の実施の形態に係る手術支援システム100の全体構成を模式的に示す図である。実施の形態に係る手術支援システム100は、手術用顕微鏡200、3次元計測装置300、および手術支援装置400を含む。   FIG. 1 is a diagram schematically showing the overall configuration of a surgery support system 100 according to an embodiment of the present invention. The surgery support system 100 according to the embodiment includes a surgical microscope 200, a three-dimensional measurement device 300, and a surgery support device 400.

手術用顕微鏡200は、被術者1の術部を含む領域の動画像を拡大して表示する。以下本明細書において、「被術者の術部を含む領域の映像」を単に「術野」と記載する。すなわち、手術用顕微鏡200による顕微鏡映像は、術野を拡大して表示した動画像である。執刀医2は、手術用顕微鏡200が提示する拡大された術野を参照しながら執刀する。このため、手術用顕微鏡200からみた術野には、執刀医2が所持する術具3または少なくともその一部も含まれる。   The surgical microscope 200 enlarges and displays a moving image of a region including the surgical site of the subject 1. Hereinafter, in the present specification, “image of the region including the surgical site of the subject” is simply referred to as “surgical field”. That is, the microscope image obtained by the surgical microscope 200 is a moving image in which the surgical field is enlarged and displayed. The surgeon 2 operates with reference to the enlarged surgical field presented by the surgical microscope 200. For this reason, the surgical field viewed from the surgical microscope 200 includes the surgical instrument 3 possessed by the surgeon 2 or at least a part thereof.

手術用顕微鏡200は顕微鏡アーム4を備えている。このため、執刀医2は被術者1の術部に対する手術用顕微鏡200の相対的な位置を変更することができる。また手術用顕微鏡200は、術野の拡大率を変更して提示することもできる。   The surgical microscope 200 includes a microscope arm 4. For this reason, the surgeon 2 can change the relative position of the surgical microscope 200 with respect to the surgical site of the subject 1. In addition, the surgical microscope 200 can change and present the enlargement ratio of the surgical field.

手術用顕微鏡200は、術野を液晶等の表示デバイスに表示して執刀医2に提示する。手術用顕微鏡200は動画像の入出力端子(不図示)を備えており、術野の動画像を外部の装置に出力したり、外部から入力された動画像を表示デバイスに表示したりすることができる。手術用顕微鏡200は、このような表示デバイスおよび入出力端子を備えているのであれば、一般的な手術用顕微鏡であってもよい。   The surgical microscope 200 displays the surgical field on a display device such as a liquid crystal and presents it to the surgeon 2. The operation microscope 200 includes a moving image input / output terminal (not shown), and outputs a moving image of the surgical field to an external device or displays a moving image input from the outside on a display device. Can do. The surgical microscope 200 may be a general surgical microscope as long as it has such a display device and input / output terminals.

3次元計測装置300は、被写体の3次元的な位置座標を特定する。より具体的には、3次元計測装置300は、自身を基準に定められた3次元座標系における観察対象の位置座標を決定する。   The three-dimensional measuring apparatus 300 specifies the three-dimensional position coordinates of the subject. More specifically, the three-dimensional measuring apparatus 300 determines the position coordinates of the observation target in a three-dimensional coordinate system determined with reference to itself.

実施の形態に係る手術支援システム100において、3次元計測装置300は被術者1の術部の位置座標と、執刀医2が所持する術具3の位置座標とを計測する。3次元計測装置300は、例えば両眼カメラを用いたステレオ方式による3次元計測等、既知の計測技術を用いて実現できる。   In the surgery support system 100 according to the embodiment, the three-dimensional measuring apparatus 300 measures the position coordinates of the surgical part of the subject 1 and the position coordinates of the surgical instrument 3 held by the surgeon 2. The three-dimensional measurement apparatus 300 can be realized by using a known measurement technique such as stereo three-dimensional measurement using a binocular camera.

限定はしないが、3次元計測装置300が撮像する術具3は、術具3の位置の計測の基準となるマーカを備えていてもよい。このマーカは、3次元計測装置300が術具3の位置を計測するために用いられるマーカである。この場合、3次元計測装置300は術具3に備えられた計測用のマーカを基準として、術具3の位置を検出する。なお、3次元計測装置300は、術具3の先端の位置座標も取得する。   Although not limited, the surgical instrument 3 imaged by the three-dimensional measurement apparatus 300 may include a marker serving as a reference for measuring the position of the surgical instrument 3. This marker is a marker used by the three-dimensional measuring apparatus 300 to measure the position of the surgical instrument 3. In this case, the three-dimensional measuring apparatus 300 detects the position of the surgical instrument 3 with reference to the measurement marker provided in the surgical instrument 3. Note that the three-dimensional measurement apparatus 300 also acquires the position coordinates of the distal end of the surgical instrument 3.

手術支援装置400は、執刀前にあらかじめ作成された、被術者1の術部を含む3次元領域の再構成画像とアクセスすることができる。限定はしないが、再構成画像とは、例えば術部のMRI画像や、CT(Computed Tomography)画像である。これらの再構成画像は3次元画像データであり、いわゆるボクセル(Voxel)で構成されている。   The surgery support apparatus 400 can access a reconstructed image of a three-dimensional region including a surgical part of the subject 1 created in advance before the operation. Although not limited, the reconstructed image is, for example, an MRI image of a surgical site or a CT (Computed Tomography) image. These reconstructed images are three-dimensional image data, and are composed of so-called voxels.

詳細は後述するが、手術支援装置400は、手術用顕微鏡200の術野に、再構成画像の少なくとも一部を重畳させるために、手術用顕微鏡200の顕微鏡映像と、3次元再構成画像とのレジストレーションを実行する。これにより、手術支援装置400は、再構成画像から抽出された病変部や被術者1の血管等が術野に重畳して表示されるようにして映像を生成し、執刀医2に提示する。このように、手術支援装置400は、いわゆる「手術用のナビゲーションシステム」を実現する。なお、手術用のナビゲーションシステムは、執刀医2に対して術部、術具3、病変部や血管等の位置関係を参考情報として提示することを目的としており、実際の執刀は執刀医2の判断の下で行われる。   Although details will be described later, the surgical operation support apparatus 400 performs a microscopic image of the surgical microscope 200 and a three-dimensional reconstructed image in order to superimpose at least a part of the reconstructed image on the surgical field of the surgical microscope 200. Perform registration. As a result, the surgery support apparatus 400 generates a video so that the lesioned part extracted from the reconstructed image, the blood vessel of the subject 1 and the like are superimposed on the surgical field and displayed to the surgeon 2. . Thus, the surgery support apparatus 400 realizes a so-called “surgical navigation system”. The navigation system for surgery is intended to provide the surgeon 2 with positional information such as the surgical part, surgical tool 3, lesioned part, and blood vessel as reference information. Done at the discretion.

以下、実施の形態に係る手術支援装置400が実行するレジストレーション処理の原理を説明する。   Hereinafter, the principle of the registration process executed by the surgery support apparatus 400 according to the embodiment will be described.

図2は、実施の形態に係る手術支援システム100で用いる複数の座標系と、座標系間の変換行列とを模式的に示す図である。手術支援システム100が扱う座標系は、ワールド座標系C、動画座標系C、カメラ座標系C、および画像座標系Cを含む。 FIG. 2 is a diagram schematically illustrating a plurality of coordinate systems used in the surgery support system 100 according to the embodiment and a transformation matrix between the coordinate systems. The coordinate system handled by the surgery support system 100 includes a world coordinate system C W , a moving image coordinate system C M , a camera coordinate system C C , and an image coordinate system C I.

ワールド座標系Cは、3次元計測装置300を基準にして定められた座標系であり、物体の実空間における位置座標を規定する座標系である。ワールド座標系Cはどのように設定してもよいが、例えば3次元計測装置300が両眼カメラである場合には、2つのカメラの中点を原点とする3次元直交座標系を設定する。より具体的には、カメラの視線方向をZ軸、2つのカメラを結ぶ方向をX軸、Z軸とX軸とに垂直な方向をY軸とする右手座標系を設定する。 The world coordinate system CW is a coordinate system defined with reference to the three-dimensional measuring apparatus 300, and is a coordinate system that defines the position coordinates of an object in real space. The world coordinate system CW may be set in any way. For example, when the three-dimensional measuring apparatus 300 is a binocular camera, a three-dimensional orthogonal coordinate system with the midpoint of the two cameras as the origin is set. . More specifically, a right hand coordinate system is set in which the viewing direction of the camera is the Z axis, the direction connecting the two cameras is the X axis, and the direction perpendicular to the Z axis and the X axis is the Y axis.

画像座標系Cは、再構成画像に設定された座標系である。上述したように、再構成画像はボクセルで表される3次元データであり、再構成画像に固有の画像座標系Cを持つ。実施の形態に係る手術支援装置400で用いる再構成画像には、あらかじめ複数の特徴点が設定されている。限定はしない例として、術部が被術者1の頭部であり再構成画像が被術者1の頭部全体を含む場合には、頭頂部や顎の先端、鼻や口の位置等が特徴点として設定されている。また、設定された各特徴点の画像座標系における位置座標も、再構成画像と紐付けて格納されている。これらの特徴点は、人の手によって設定してもよいし、既知の画像認識技術を用いて自動で設定してもよい。 Image coordinate system C I is a coordinate system set in the reconstructed image. As described above, the reconstructed image is three-dimensional data represented by voxels in the reconstructed image with a unique image coordinate system C I. A plurality of feature points are set in advance in the reconstructed image used in the surgery support apparatus 400 according to the embodiment. As an example without limitation, when the surgical part is the head of the subject 1 and the reconstructed image includes the entire head of the subject 1, the position of the top of the head, the tip of the jaw, the nose and the mouth, etc. It is set as a feature point. Further, the position coordinates of the set feature points in the image coordinate system are also stored in association with the reconstructed image. These feature points may be set by a human hand or automatically using a known image recognition technique.

カメラ座標系Cは、手術用顕微鏡200を基準にして定められた座標系である。カメラ座標系Cは、ワールド座標系Cと同様に、物体の実空間における位置座標を規定する右手座標系である。また動画座標系Cは、手術用顕微鏡200が生成する術野の動画像に設定された2次元座標系である。 Camera coordinate system C C is a coordinate system defined on the basis of the surgical microscope 200. Camera coordinate system C C, as well as the world coordinate system C W, a right-handed coordinate system for defining the position coordinates in the real space of an object. The moving image coordinate system CM is a two-dimensional coordinate system set for a moving image of the surgical field generated by the surgical microscope 200.

行列Qは、画像座標系Cにおける座標を、ワールド座標系Cにおける座標に変換する行列である。以下、行列Qについてより詳細に説明する。 Matrix Q is the coordinate in the image coordinate system C I, is a matrix for converting the coordinates in the world coordinate system C W. Hereinafter, the matrix Q will be described in more detail.

再構成画像上に設定されたある特徴点Fの画像座標系Cにおける位置座標を(x,y,z)とする。ここで記号「T」は、ベクトルまたは行列の転置を表す。また、特徴点Fに対応する実空間上の点の、ワールド座標系Cにおける位置座標を(X,Y,Z)とする。例えば、特徴点Fが被術者1の頭頂部を示す場合、(x,y,z)は再構成画像における頭頂部の位置座標であり、(X,Y,Z)は被術者1の頭頂部の実空間における位置座標である。 The position coordinates in the image coordinate system C I of a feature point F, which is set on the reconstructed image and (x, y, z) T . Here, the symbol “T” represents transposition of a vector or a matrix. Further, the position coordinate in the world coordinate system CW of the point on the real space corresponding to the feature point F is (X, Y, Z) T. For example, when the feature point F indicates the top of the subject 1, (x, y, z) T is the position coordinate of the top of the reconstructed image, and (X, Y, Z) T is the subject. It is a position coordinate in real space of the top of 1 head.

以下本明細書において、位置座標を既知の斉次座標を用いて表す。すなわち、画像座標系Cにおける特徴点Fの位置座標(x,y,z)を、4つの実数の組(x,x,x,xで表す。ここで、
x=x/x, y=x/x, z=x/x (1)
である。同様に、ワールド座標系Cにおける特徴点Fの位置座標を、4つの実数の組(X,X,X,Xで表す。ここで、
X=X/X, Y=X/X, Z=X/X (2)
である。
Hereinafter, in this specification, position coordinates are expressed using known homogeneous coordinates. That is, the position coordinates of the feature point F in the image coordinate system C I (x, y, z ) and T, represented by four real pairs (x 1, x 2, x 3, x 4) T. here,
x = x 1 / x 4, y = x 2 / x 4, z = x 3 / x 4 (1)
It is. Similarly, the position coordinate of the feature point F in the world coordinate system CW is represented by a set of four real numbers (X 1 , X 2 , X 3 , X 4 ) T. here,
X = X 1 / X 4, Y = X 2 / X 4, Z = X 3 / X 4 (2)
It is.

再構成画像は、被術者1の術部の3次元データであるから、特徴点Fの画像座標系Cにおける位置座標は、回転、並進、および拡大/縮小を適宜施すことにより、ワールド座標系Cにおける位置座標に変換できる。ワールド座標系Cにおける特徴点Fの斉次座標は、画像座標系Cにおける特徴点Fの斉次座標と4×4の行列Qを用いて、

Figure 0006290723
と表すことができる。 The reconstructed image, since a three-dimensional data of the operative portion of the subject's 1, the position coordinates in the image coordinate system C I of the feature point F, rotation, translation, and enlargement / reduction of by subjecting appropriate, world coordinates It can be converted into position coordinates in the system CW . Homogeneous coordinates of the feature point F in the world coordinate system C W, using a matrix Q of homogeneous coordinates and 4 × 4 feature points F in the image coordinate system C I,
Figure 0006290723
It can be expressed as.

ここで行列Qは、

Figure 0006290723
で表される。Rは3×3の行列であり、3次元の回転行列である。Tは1×3のベクトルであり、並進を規定する。sはスケーリングパラメータであり、拡大/縮小を示すパラメータである。 Where the matrix Q is
Figure 0006290723
It is represented by R is a 3 × 3 matrix and is a three-dimensional rotation matrix. T is a 1 × 3 vector and defines the translation. s is a scaling parameter and is a parameter indicating enlargement / reduction.

式(4)より、行列Qは12個の未知数を持つ。したがって、少なくとも4つの特徴点について画像座標系Cの位置座標とワールド座標系Cの位置座標との組み合わせが既知であれば、行列Qを推定することができる。以下本明細書において、行列Qを「第1変換行列」と記載する。 From equation (4), the matrix Q has 12 unknowns. Therefore, if the combination of the position coordinates of the position coordinates and the world coordinate system C W of the image coordinate system C I for at least four feature points are known, it is possible to estimate the matrix Q. Hereinafter, in the present specification, the matrix Q is referred to as a “first transformation matrix”.

手術用顕微鏡200は、実空間に存在する術部の映像を動画像202上に投影する。以下、図3を参照して、カメラ座標系Cの座標を動画座標系Cの座標に変換する行列APについて説明する。 The surgical microscope 200 projects an image of a surgical part existing in real space on a moving image 202. Referring to FIG. 3, for the matrix AP will be described for converting the coordinates of the camera coordinate system C c to the coordinates of a moving coordinate system C M.

図3は、ピンホールカメラモデルに基づく透視投影を模式的に示す図である。図3において、カメラ座標系Cの原点は、仮想的なピンホールカメラの光学中心Cに設定されている。カメラ座標系CのZ軸は仮想的なピンホールカメラの光軸と一致しており、動画像202の画像面は、光学中心Cからf離れた位置においてZ軸と垂直に交わっている。 FIG. 3 is a diagram schematically showing perspective projection based on a pinhole camera model. 3, the origin of the camera coordinate system C C is set at the optical center C of the virtual pinhole camera. Z-axis of the camera coordinate system C C image plane of the virtual pinhole camera coincides with the optical axis, the moving image 202, intersects the Z axis perpendicular at a distance f from the optical center C.

図3に示すように、カメラ座標系Cの位置座標(X,Y,Z)に位置する点Qは、動画像202の画像面における点qに投影される。点qは、点Qと光学中心Cとを結ぶ線分QCと、動画像202の画像面との交点である。点qの動画座標系Cにおける位置座標を(x,y)とすると、以下の式(5)が成立する。 As shown in FIG. 3, the position coordinates of the camera coordinate system C C (X, Y, Z ) Q point situated T is projected to a point q in an image plane of the moving image 202. A point q is an intersection of a line segment QC connecting the point Q and the optical center C and the image plane of the moving image 202. When the position coordinates of the moving coordinate system C M of the point q and (x, y) T, the following equation (5) is satisfied.

Figure 0006290723
式(5)はいわゆる透視投影を表す式である。
Figure 0006290723
Expression (5) is an expression representing so-called perspective projection.

点Qの斉次座標を(Y,Y,Y,Y、点qの斉次座標を(x,x,xとすると、ωを任意の実数として、式(5)は以下の式(6)で表せる。

Figure 0006290723
例えば、式(6)よりωx=Y、ωx=Yが得られる。これより、x/x=Y/Yが得られる。斉次座標の定義より、左辺x/x=xである。また、右辺はX/Zとなる。故にx=X/Zが得られ、式(5)と一致する。同様に、式(6)よりy=Y/Zも得られる。 When the homogeneous coordinates of the point Q are (Y 1 , Y 2 , Y 3 , Y 4 ) T and the homogeneous coordinates of the point q are (x 1 , x 2 , x 3 ) T , ω is an arbitrary real number, Equation (5) can be expressed by the following equation (6).
Figure 0006290723
For example, ωx 1 = Y 1 and ωx 3 = Y 3 are obtained from Equation (6). Than this, x 1 / x 3 = Y 1 / Y 3 is obtained. From the definition of the homogeneous coordinates, the left side x 1 / x 3 = x. The right side is X / Z. Therefore, x = X / Z is obtained, which is consistent with the formula (5). Similarly, y = Y / Z is also obtained from equation (6).

ところで、ベクトル(x,y)は動画像202の画像面における点qの位置座標を表すが、手術用顕微鏡200は、実際には、点qにおける映像を離散的な画素(pixel)として記録する。いま、点qに対応する画素の座標を(u,v)とする。このとき、ベクトル(x,y)からベクトル(u,v)への変換は、原点位置合わせのための並進、縦横のスケール変換、および手術用顕微鏡200のレンズの焦点距離に応じたスケール変換を組み合わせたものとなる。 Incidentally, the vector (x, y) T represents the position coordinates of the point q on the image plane of the moving image 202, but the surgical microscope 200 actually records the video at the point q as discrete pixels. To do. Now, let the coordinates of the pixel corresponding to the point q be (u, v) T. At this time, the conversion from the vector (x, y) T to the vector (u, v) T includes translation for origin alignment, vertical and horizontal scale conversion, and a scale corresponding to the focal length of the lens of the surgical microscope 200. It is a combination of transformations.

ベクトル(u,v)の斉次座標を(m,m,mとする。すなわち、u=m/m、v=m/mである。また、動画像202の画像中心の座標を(u,v)、焦点距離をf、uおよびv方向のスケールファクタをそれぞれk、kとすると、(m,m,mと(x,x,xとの関係は以下の式(7)で表せる。

Figure 0006290723
Let (m 1 , m 2 , m 3 ) T be the homogeneous coordinates of the vector (u, v) T. That is, u = m 1 / m 3 and v = m 2 / m 3 . If the coordinates of the image center of the moving image 202 are (u 0 , v 0 ), the focal lengths are f, u, and the scale factors in the v direction are k u , k v , respectively, (m 1 , m 2 , m 3 ) The relationship between T and (x 1 , x 2 , x 3 ) T can be expressed by the following equation (7).
Figure 0006290723

式(6)と式(7)より、以下の式(8)を得る。

Figure 0006290723
ここで、
Figure 0006290723
は、内部パラメータ行列と呼ばれる。また、
Figure 0006290723
は、透視投影を表す行列である。以上より、行列APは、カメラ座標系Cの斉次座標を、動画像202の画像面を構成する画素座標に変換する行列である。 From the equations (6) and (7), the following equation (8) is obtained.
Figure 0006290723
here,
Figure 0006290723
Is called the internal parameter matrix. Also,
Figure 0006290723
Is a matrix representing perspective projection. Thus, the matrix AP is the homogeneous coordinates of the camera coordinate system C C, a matrix for transforming the pixel coordinates constituting the image plane of the moving image 202.

続いて、図4を参照して行列Mについて説明する。   Next, the matrix M will be described with reference to FIG.

図4は、ワールド座標系Cとカメラ座標系Cとの関係を模式的に示す図である。上述したように、手術用顕微鏡200は顕微鏡アーム4を備えている。このため、手術用顕微鏡200は3次元計測装置300に対して相対的な位置関係が変化しうる。 Figure 4 is a diagram schematically showing the relationship between the world coordinate system C W and the camera coordinate system C C. As described above, the surgical microscope 200 includes the microscope arm 4. For this reason, the relative positional relationship of the surgical microscope 200 with respect to the three-dimensional measurement apparatus 300 can change.

図4において、ワールド座標系Cから第1カメラ座標系Cへの座標変換は、3次元の回転Rおよび3次元の並進Tによって変換される。同様に、ワールド座標系Cから第2カメラ座標系C’への座標変換は、3次元の回転R’および3次元の並進T’によって変換される。 4, the coordinate transformation from the world coordinate system C W to the first camera coordinate system C C is converted by the three-dimensional rotation R and 3-dimensional translation T. Similarly, the coordinate transformation from the world coordinate system CW to the second camera coordinate system C C ′ is transformed by a three-dimensional rotation R ′ and a three-dimensional translation T ′.

いま、カメラ座標系Cにおける点Qの斉次座標を(Y,Y,Y,Y、ワールド座標系Cにおける点Qの斉次座標を(X,X,X,Xとする。このとき、ワールド座標系Cからカメラ座標系Cへの座標変換は、4×4の行列Mを用いて、以下の式(9)で表すことができる。

Figure 0006290723
ここでMは3次元の回転行列Rと、並進を規定するベクトルTを用いて、以下の式(10)で表される。
Figure 0006290723
Now, the homogeneous coordinates of the point Q in the camera coordinate system C C (Y 1, Y 2 , Y 3, Y 4) T, the homogeneous coordinates of the point Q in the world coordinate system C W (X 1, X 2 , X 3 , X 4 ) T. In this case, coordinate transformation from the world coordinate system C W to a camera coordinate system C C can be expressed by using the matrix M of 4 × 4, the following equation (9).
Figure 0006290723
Here, M is expressed by the following equation (10) using a three-dimensional rotation matrix R and a vector T that defines translation.
Figure 0006290723

式(8)、式(9)、および式(10)から、ワールド座標系Cにおける斉次座標(X,X,X,Xを、動画像202の画像面を構成する画素の斉次座標(m,m,mに変換する式は、以下の式(11)となる。

Figure 0006290723
From the equations (8), (9), and (10), the homogeneous coordinates (X 1 , X 2 , X 3 , X 4 ) T in the world coordinate system C W are used to construct the image plane of the moving image 202. The following equation (11) is converted into the homogeneous coordinates (m 1 , m 2 , m 3 ) T of the pixel to be converted.
Figure 0006290723

式(11)において、行列P=APMは3×4の行列である。そこで、行列Pの要素は以下の式(12)であるとする。

Figure 0006290723
In equation (11), the matrix P P = APM is a 3 × 4 matrix. Therefore, the elements of the matrix P P is the following equation (12).
Figure 0006290723

式(11)に式(12)を代入すると、以下の式(13)、式(14)、および式(15)を得る。
ωm=p11+p12+P13+P14 (13)
ωm=p21+p22+P23+P24 (14)
ωm=p31+p32+P33+P34 (15)
Substituting equation (12) into equation (11) yields the following equations (13), (14), and (15).
ωm 1 = p 11 X 1 + p 12 X 2 + P 13 X 3 + P 14 X 4 (13)
ωm 2 = p 21 X 1 + p 22 X 2 + P 23 X 3 + P 24 X 4 (14)
ωm 3 = p 31 X 1 + p 32 X 2 + P 33 X 3 + P 34 X 4 (15)

式(13)、式(15)、および斉次座標の定義より、以下の式(16)を得る。

Figure 0006290723
同様に、式(14)、式(15)、および斉次座標の定義より、以下の式(17)を得る。
Figure 0006290723
From the formulas (13), (15), and the definition of homogeneous coordinates, the following formula (16) is obtained.
Figure 0006290723
Similarly, the following formula (17) is obtained from the formula (14), the formula (15), and the definition of the homogeneous coordinates.
Figure 0006290723

式(16)および式(17)から、以下の式(18)を得る。

Figure 0006290723
ここで、ベクトルpは行列Pの要素から構成されるベクトルであり、以下の式(19)で表される12×1のベクトルである。
Figure 0006290723
From the equations (16) and (17), the following equation (18) is obtained.
Figure 0006290723
Here, the vector p is a vector composed of elements of the matrix P P, a vector of 12 × 1 represented by the following formula (19).
Figure 0006290723

式(18)において、行列Dの成分はワールド座標系Cにおける斉次座標と、それに対応する画素の座標であるため、観測可能である。いま、ある12×1のベクトルpを考えたとき、
Dp=e (20)
であるとする。ここでeは、(e,eとなる2×1のベクトルである。式(20)において、eの2ノルムが最小となるベクトルpが求まれば、誤差の2ノルムを最小化するという観点における行列Pの最適解である最小二乗誤差解が得られる。この最小二乗誤差解をPoptとすると、Poptは以下の式(21)で表される。

Figure 0006290723
In the equation (18), the components of the matrix D are the homogeneous coordinates in the world coordinate system CW and the coordinates of the corresponding pixels, and can be observed. Now, when we consider a certain 12 × 1 vector p,
Dp = e (20)
Suppose that Here, e is a 2 × 1 vector that becomes (e 1 , e 2 ) T. In the formula (20), if Motomare the vector p 2 norm of e is minimized, the minimum square error solution of 2-norm of the error is the optimal solution of the matrix P P in terms of minimizing is obtained. When this least square error solution is P opt , P opt is expressed by the following equation (21).
Figure 0006290723

式(21)は、p=0という自明解を持つから、pの2ノルムが正の値を持つという拘束条件を加えて、ラグランジュの未定乗数法を用いると以下の式(22)を得る。

Figure 0006290723
ここで、λはラグランジュの未定乗数である。 Since equation (21) has a trivial solution of p = 0, the following equation (22) is obtained by using the Lagrange's undetermined multiplier method with the constraint that the 2-norm of p has a positive value.
Figure 0006290723
Here, λ is a Lagrange multiplier.

式(21)中のpDp+λ(1−pp)をCとおいたとき、Cが極値となるpが、求める解である。Cをpについて微分すると、以下の式(23)を得る。

Figure 0006290723
When p T D T Dp + λ in the equation (21) to (1-p T p) was placed and C, p C is an extreme value it is a solution to obtain. When C is differentiated with respect to p, the following equation (23) is obtained.
Figure 0006290723

式(23)は、ベクトルpが行列DDの固有ベクトルのとき成立する。故に、行列DDの固有ベクトルを求めることで、ワールド座標系Cにおける斉次座標を動画像202の画像面を構成する画素の斉次座標に変換する行列Pの推定値を得ることができる。以下本明細書において、行列Pを「第2変換行列」と記載する。なお、行列の固有ベクトルを求めるための種々のソルバが存在し利用可能である。これらのソルバを利用することにより、行列DDの固有ベクトルは、手術に要する時間と比較して十分に短い時間内で計算することができる。ゆえに、手術用顕微鏡200の画角または視線方向(撮影方向)の少なくとも一方が変更されたとしても、手術中にリアルタイムで行列Pの推定値を計算し直すことができる。 Equation (23) holds when the vector p is an eigenvector of the matrix D T D. Thus, by obtaining an eigenvector of the matrix D T D, to obtain an estimate of the matrix P P of converting the homogeneous coordinates in the world coordinate system C W in homogeneous coordinates of pixels constituting the image plane of the moving image 202 it can. Herein below, the matrix P P is referred to as "second conversion matrix". Various solvers for obtaining eigenvectors of the matrix exist and can be used. By using these solvers, the eigenvectors of the matrix D T D can be calculated within a sufficiently short time compared to the time required for the operation. Therefore, even if at least one of the angle of view or line of sight direction of the surgical microscope 200 (imaging direction) is changed, it is possible to re-calculate an estimate of the matrix P P in real time during surgery.

なお、式(20)は、ワールド座標系Cにおける1点の斉次座標とその点に対応する動画上の画素の座標との関係を示しているため、行列Dのサイズは2×12となっている。複数の点についてワールド座標系Cにおける斉次座標とそれに対応する動画上の画素の座標が既知の場合には、それらの座標を用いて行列Dを構成することができる。例えば、N点(Nは自然数)についてワールド座標系Cにおける斉次座標とそれに対応する動画上の画素の座標が既知の場合には、行列Dのサイズは2N×12となる。対応する点の数が多いほど、精度の高い行列Pの推定値を得られる可能性が高まる。 Since the equation (20) shows the relationship between the homogeneous coordinates of one point in the world coordinate system CW and the coordinates of the pixel on the moving image corresponding to the point, the size of the matrix D is 2 × 12. It has become. When the homogeneous coordinates in the world coordinate system CW and the coordinates of the corresponding pixels on the moving image are known for a plurality of points, the matrix D can be constructed using these coordinates. For example, when the homogeneous coordinates in the world coordinate system CW and the coordinates of the corresponding pixels on the moving image are known for N points (N is a natural number), the size of the matrix D is 2N × 12. The more the number of the corresponding points, are more likely to obtain an estimate of the precise matrix P P.

上述したように、行列Dの成分はワールド座標系Cにおける斉次座標と、それに対応する画素の座標である。例えば執刀医2が手術用顕微鏡200を動かしたり、レンズの倍率を変更したりした場合、内部パラメータ行列Aが変更される。結果として、第2変換行列Pも変更される。このような場合、例えばワールド座標系Cにおける術具3の位置座標と、それに対応する画座標系Cにおける位置座標とが取得して式(23)における行列Dをまず構成する。続いて、行列DDの固有ベクトルを求めることで、手術中であってもリアルタイムに第2変換行列Pを推定し直すことができる。 As described above, the components of the matrix D are the homogeneous coordinates in the world coordinate system CW and the coordinates of the corresponding pixels. For example, when the surgeon 2 moves the surgical microscope 200 or changes the magnification of the lens, the internal parameter matrix A is changed. As a result, the second transformation matrix PP is also changed. In such a case, for example, the position coordinates of the surgical instrument 3 in the world coordinate system C W, obtains the position coordinates in the image coordinate system C M corresponding thereto to first configure the matrix D in equation (23). Then, by obtaining the eigenvector of the matrix D T D, it is possible even during operation again estimating a second transformation matrix P P in real time.

式(3)と式(11)より、再構成画像に設定された画像座標系Cにおける斉次座標x,x,x,xを、動画像202の画像面を構成する画素の斉次座標(m,m,mに変換する式は、以下の式(24)で表される。

Figure 0006290723
From equation (3) and equation (11), homogeneous coordinates x 1 in the image coordinate system C I set in the reconstructed image, x 2, x 3, the x 4) T, constitutes the image plane of the moving image 202 The equation for converting to the homogeneous coordinates (m 1 , m 2 , m 3 ) T of the pixel to be expressed is expressed by the following equation (24).
Figure 0006290723

式(24)は、第1変換行列Qと、第2変換行列Pとを用いることで、再構成画像を手術用顕微鏡200が生成する動画像に対応づけること、すなわち再構成画像を動画像にレジストレーションすることができることを示している。したがって、式(24)を用いることにより、手術用顕微鏡200が示す術野に対して、再構成画像の一部(例えば、病変部や、血管、神経等)を重畳することが可能となる。なお、手術用顕微鏡200が示す術野に重畳する再構成画像の一部は、あらかじめ手動または画像認識技術を用いて特定しておけばよい。 Equation (24), a first transformation matrix Q, by using a second transformation matrix P P, be associated to the moving image a reconstructed image surgical microscope 200 produces, i.e. moving image reconstructed image It shows that it can be registered. Therefore, by using Expression (24), it is possible to superimpose a part of the reconstructed image (for example, a lesion, blood vessel, nerve, etc.) on the surgical field indicated by the surgical microscope 200. A part of the reconstructed image to be superimposed on the surgical field indicated by the surgical microscope 200 may be specified manually or using an image recognition technique in advance.

以上、実施の形態に係る手術支援装置400が実行するレジストレーション処理の原理について説明した。続いて、実施の形態に係る手術支援装置400の機能構成および動作について説明する。   The principle of the registration process executed by the surgery support apparatus 400 according to the embodiment has been described above. Next, the functional configuration and operation of the surgery support apparatus 400 according to the embodiment will be described.

図5は、実施の形態に係る手術支援装置400の機能構成を模式的に示す図である。手術支援装置400は、医用画像取得部402、第1変換行列取得部404、3次元座標取得部406、画像重畳部408、動画取得部410、画像解析部412、および第2変換行列取得部414を備える。限定はしない例として、手術支援装置400は、PC(Personal Computer)、PACS(Picture Archiving and Communication System)を構成する計算機、ワークステーションの他、タブレットやスマートフォン等を用いて実現できる。   FIG. 5 is a diagram schematically illustrating a functional configuration of the surgery support apparatus 400 according to the embodiment. The surgery support apparatus 400 includes a medical image acquisition unit 402, a first conversion matrix acquisition unit 404, a three-dimensional coordinate acquisition unit 406, an image superimposition unit 408, a moving image acquisition unit 410, an image analysis unit 412, and a second conversion matrix acquisition unit 414. Is provided. As a non-limiting example, the surgery support apparatus 400 can be realized by using a tablet, a smartphone, or the like in addition to a PC (Personal Computer), a computer constituting a PACS (Picture Archiving and Communication System), and a workstation.

図5は、実施の形態に係る手術支援装置400を実現するための機能構成を示しており、その他の構成は省略している。図5において、さまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、手術支援装置400のCPU(Central Processing Unit)、メインメモリ、その他のLSI(Large Scale Integration)で構成することができる。またソフトウェア的には、メインメモリにロードされたプログラム等によって実現される。したがってこれらの機能ブロックが、いろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   FIG. 5 shows a functional configuration for realizing the surgery support apparatus 400 according to the embodiment, and other configurations are omitted. In FIG. 5, each element described as a functional block for performing various processes is configured by a CPU (Central Processing Unit), a main memory, and other LSI (Large Scale Integration) of the surgery support apparatus 400 in terms of hardware. can do. In terms of software, it is realized by a program loaded in the main memory. Accordingly, it is understood by those skilled in the art that these functional blocks can be realized in various forms, and is not limited to any one.

医用画像取得部402は、被術者の手術部を含む領域の3次元の再構成画像を取得する。図示はしないが、医用画像取得部402は、手術支援装置400が設置された施設内等のネットワークと接続しており、当該ネットワークを介して再構成画像を取得する。   The medical image acquisition unit 402 acquires a three-dimensional reconstructed image of an area including the surgical part of the subject. Although not shown, the medical image acquisition unit 402 is connected to a network such as a facility where the surgery support apparatus 400 is installed, and acquires a reconstructed image via the network.

3次元座標取得部406は、手術に用いられる術具3の3次元的な位置座標を、3次元計測装置300から取得する。より具体的には、3次元座標取得部406は3次元計測装置300と有線接続されており、術具3の位置座標を有線で取得する。3次元座標取得部406が取得する座標は、ワールド座標系Cにおける術具3の位置座標である。なお、3次元座標取得部406と3次元計測装置300とが有線または無線ネットワークを介して接続されている場合には、ネットワークを介して術具3の位置座標を取得してもよい。 The three-dimensional coordinate acquisition unit 406 acquires the three-dimensional position coordinates of the surgical instrument 3 used for the operation from the three-dimensional measurement apparatus 300. More specifically, the three-dimensional coordinate acquisition unit 406 is connected to the three-dimensional measurement apparatus 300 by wire, and acquires the position coordinates of the surgical instrument 3 by wire. The coordinates acquired by the three-dimensional coordinate acquisition unit 406 are the position coordinates of the surgical instrument 3 in the world coordinate system CW . When the 3D coordinate acquisition unit 406 and the 3D measurement device 300 are connected via a wired or wireless network, the position coordinates of the surgical instrument 3 may be acquired via the network.

第1変換行列取得部404は、再構成画像に設定された画像座標系Cの座標を3次元座標取得部406が位置座標計測に用いるワールド座標系Cの座標に変換するための第1変換行列Qを取得する。第1変換行列Qは、上記式(3)および式(4)を用いてあらかじめ推定されて手術支援装置400内の図示しない記憶部に格納されている。第1変換行列取得部404は、手術支援装置400内の記憶部を参照して、第1変換行列Qを取得する。あるいは、第1変換行列取得部404は、あらかじめ再構成画像に設定されている特徴点の位置座標を用いて、第1変換行列Qを推定して取得してもよい。 First transformation matrix acquisition unit 404 for the coordinates of the image coordinate system C M set in the reconstructed image 3-dimensional coordinate acquiring unit 406 converts the coordinates of the world coordinate system C W used in the position coordinate measuring first A transformation matrix Q is obtained. The first transformation matrix Q is estimated in advance using the above equations (3) and (4) and stored in a storage unit (not shown) in the surgery support apparatus 400. The first transformation matrix acquisition unit 404 refers to the storage unit in the surgery support apparatus 400 and acquires the first transformation matrix Q. Alternatively, the first transformation matrix acquisition unit 404 may estimate and acquire the first transformation matrix Q using the position coordinates of the feature points set in advance in the reconstructed image.

動画取得部410は、被術者1の術野を撮影した2次元の動画像202を取得する。ここで動画取得部410が取得する動画像は、手術用顕微鏡200が生成して出力した動画像である。画像解析部412は、動画取得部410が取得した動画像202に設定された2次元座標系である動画座標系Cにおける、術具3の2次元的な位置座標を取得する。なお、画像解析部412の詳細は後述する。 The moving image acquisition unit 410 acquires a two-dimensional moving image 202 obtained by photographing the surgical field of the subject 1. Here, the moving image acquired by the moving image acquisition unit 410 is a moving image generated and output by the surgical microscope 200. The image analysis unit 412, the moving coordinate system C M is a two-dimensional coordinate system set in the moving image 202 moving image obtaining unit 410 obtains, acquires two-dimensional position coordinates of the surgical instrument 3. Details of the image analysis unit 412 will be described later.

第2変換行列取得部414は、2変換行列Pを推定して取得する。より具体的には、第2変換行列取得部414は、3次元座標取得部406が取得した術具3の3次元的な位置座標と、画像解析部412が取得した術具3の2次元的な位置座標とをもとに、式(18)における行列Dを構成し、式(23)を満たすベクトルpを求めることで、第2変換行列Pを推定する。 The second transformation matrix acquisition unit 414 acquires estimated 2 transformation matrix P P. More specifically, the second transformation matrix acquisition unit 414 performs the three-dimensional position coordinates of the surgical tool 3 acquired by the three-dimensional coordinate acquisition unit 406 and the two-dimensional position of the surgical tool 3 acquired by the image analysis unit 412. The second transformation matrix PP is estimated by constructing the matrix D in Expression (18) based on the correct position coordinates and obtaining the vector p satisfying Expression (23).

画像重畳部408は、第1変換行列Qと第2変換行列Pとを用いて、式(24)にしたがって、再構成画像の少なくとも一部を術野の動画像202上に2次元画像として重畳する。画像重畳部408は、再構成画像の一部を重畳した動画像202を、手術用顕微鏡200に出力する。これにより、手術用顕微鏡200を用いて被術者1の術部を観察する執刀医2は、術野に再構成画像の一部が重畳された映像を観察することができる。 Image superimposing unit 408, by using a first transformation matrix Q and a second transformation matrix P P, according to equation (24), as a two-dimensional image at least a portion of the reconstructed image on the moving image 202 of the surgical field Superimpose. The image superimposing unit 408 outputs the moving image 202 on which a part of the reconstructed image is superimposed to the surgical microscope 200. Thereby, the surgeon 2 who observes the surgical site of the subject 1 using the surgical microscope 200 can observe an image in which a part of the reconstructed image is superimposed on the surgical field.

ここで、執刀医2が例えば被術者1の術部に対する手術用顕微鏡200の相対的な位置を変更したり、手術用顕微鏡200のレンズの倍率を変更(すなわち、焦点距離を変更)したりしたとする。この変更に伴って第2変換行列Pも変更されるため、第2変換行列取得部414は、第2変換行列Pを推定し直すことが好ましい。 Here, for example, the surgeon 2 changes the relative position of the surgical microscope 200 with respect to the surgical site of the subject 1 or changes the magnification of the lens of the surgical microscope 200 (that is, changes the focal length). Suppose that Since the second transformation matrix P P is also changed along with the change, the second transformation matrix acquisition unit 414 is preferably re-estimating the second transformation matrix P P.

そこで画像解析部412は、動画取得部410が手術用顕微鏡200から取得する動画像202を解析して、動画像202の画角または視線方向の少なくとも一方が変更されたか否かを検出する。第2変換行列取得部414は、画像解析部412が画角または視線方向の少なくとも一方の変更を検出することを契機として、第2変換行列Pを推定する。手術用顕微鏡200の相対的な位置が変更されたり、手術用顕微鏡200のレンズの倍率が変更されたりすると、動画像202の画角または視線方向も変わる。したがって、画像解析部412が動画像202の画角または視線方向の少なくとも一方の変更を検出することを契機として第2変換行列取得部414が第2変換行列Pを推定することにより、再構成画像と動画像202との適切なレジストレーションを維持することができる。 Therefore, the image analysis unit 412 analyzes the moving image 202 acquired by the moving image acquisition unit 410 from the surgical microscope 200, and detects whether at least one of the angle of view or the line-of-sight direction of the moving image 202 has been changed. The second transformation matrix acquisition unit 414, triggered by the image analysis unit 412 detects at least one of the change in the angle of view or line of sight direction, estimating a second transformation matrix P P. When the relative position of the surgical microscope 200 is changed or the magnification of the lens of the surgical microscope 200 is changed, the angle of view or the line-of-sight direction of the moving image 202 also changes. Thus, by the image analysis unit 412 and the second transformation matrix acquisition unit 414 in response to detecting at least one of changing the angle of view or line of sight direction of the moving image 202 to estimate the second transformation matrix P P, reconstruction Appropriate registration between the image and the moving image 202 can be maintained.

図6は、実施の形態に係る画像解析部412の機能構成を模式的に示す図である。画像解析部412は、術具特定部420、背景領域特定部422、差分画像取得部424、および差分画像解析部426を備える。   FIG. 6 is a diagram schematically illustrating a functional configuration of the image analysis unit 412 according to the embodiment. The image analysis unit 412 includes a surgical instrument specifying unit 420, a background region specifying unit 422, a difference image acquiring unit 424, and a difference image analyzing unit 426.

術具特定部420は、手術用顕微鏡200から取得した動画像202に写っている術具3を検出する。より具体的に、術具特定部420は、手術用顕微鏡200から取得した動画像202を解析することで、術具3の先端の位置座標を、動画像202を構成する画素の座標として取得する。これは例えば既知のHough変換[3]とSURF[4]などの画像処理を用いて、以下の手順により実現できる。 The surgical instrument specifying unit 420 detects the surgical instrument 3 shown in the moving image 202 acquired from the surgical microscope 200. More specifically, the surgical instrument specifying unit 420 analyzes the moving image 202 acquired from the surgical microscope 200 to acquire the position coordinates of the tip of the surgical instrument 3 as the coordinates of the pixels constituting the moving image 202. . This can be realized by the following procedure using image processing such as known Hough transform [3] and SURF [4] .

最初に、術具特定部420は、取得した動画像202に直線検出に用いられるHough変換をかけることにより術具3を認識させ、Hough変換をもとにROI(Region Of Interest)より、術具3付近の範囲指定を行う。続いて術具特定部420は、ROIの範囲にSURFをかけ術具3の特徴点を抽出し、抽出した特徴点の水平方向の最小点を術具3の先端位置として検出する。術具特定部420は、取得した動画像202のフレーム毎、あるいは所定の間引きをしたフレーム毎に術具3の先端位置を検出し、検出結果を第2変換行列取得部414に出力する。   First, the surgical instrument specifying unit 420 recognizes the surgical instrument 3 by applying a Hough transform used for straight line detection to the acquired moving image 202, and based on the Hough transform, a surgical instrument is obtained from ROI (Region Of Interest). Specify the range near 3. Subsequently, the surgical instrument specifying unit 420 extracts the feature point of the surgical instrument 3 by applying the SURF to the ROI range, and detects the minimum horizontal point of the extracted feature point as the distal end position of the surgical instrument 3. The surgical instrument specifying unit 420 detects the tip position of the surgical instrument 3 for each frame of the acquired moving image 202 or for each predetermined frame, and outputs the detection result to the second transformation matrix acquisition unit 414.

背景領域特定部422は、動画像202のフレーム毎に背景領域を特定する。ここで「背景領域」とは、動画像202において術具3以外が写っている領域である。一般に、手術用顕微鏡200の位置や倍率が固定されていても、手術中であれば術具3の位置は変化する。しかしながら、手術用顕微鏡200の位置や倍率が固定されている場合には、背景領域は変化が少ないと考えられる。したがって、背景領域が変化するか否かは、手術用顕微鏡200の位置や倍率が変更されたか否かの指標となり得る。   The background area specifying unit 422 specifies a background area for each frame of the moving image 202. Here, the “background region” is a region in which a part other than the surgical instrument 3 is shown in the moving image 202. In general, even if the position and magnification of the surgical microscope 200 are fixed, the position of the surgical instrument 3 changes during the operation. However, when the position and magnification of the surgical microscope 200 are fixed, the background region is considered to change little. Therefore, whether or not the background region changes can be an indicator of whether or not the position and magnification of the surgical microscope 200 have been changed.

そこで差分画像取得部424は、背景領域特定部422が特定した異なるフレーム間の背景画像の差分画像を取得する。差分画像解析部426は、差分画像取得部424が取得して差分画像を解析して、動画像202の画角または視線方向の少なくとも一方が変更されたか否かを検出する。具体例としては、差分画像解析部426は、各フレームのペア毎に差分画像の画素値の2乗または絶対値の総和を生成する。差分画像解析部426は生成した総和を監視し、総和が所定量変化した場合に、動画像の画角または視線方向の少なくとも一方が変更されたと推定する。   Therefore, the difference image acquisition unit 424 acquires a difference image of the background image between different frames specified by the background region specifying unit 422. The difference image analysis unit 426 acquires the difference image acquisition unit 424 and analyzes the difference image to detect whether at least one of the angle of view or the line-of-sight direction of the moving image 202 has been changed. As a specific example, the difference image analysis unit 426 generates the square of the pixel values of the difference image or the sum of absolute values for each pair of frames. The difference image analysis unit 426 monitors the generated sum and estimates that at least one of the angle of view or the line-of-sight direction of the moving image has been changed when the sum changes by a predetermined amount.

ここで「所定量」とは、総和の計算方法、差分画像解析部426が動画像202の画角または視線方向の変更の推定に用いるための基準閾値である。所定量の具体的な値は、動画像202の画素数や術具3の形状および大きさ、想定される手術の種類等を考慮して、実験により定めればよい。   Here, the “predetermined amount” is a calculation method of the sum, and a reference threshold used by the difference image analysis unit 426 to estimate a change in the angle of view or the line-of-sight direction of the moving image 202. The specific value of the predetermined amount may be determined by experiment in consideration of the number of pixels of the moving image 202, the shape and size of the surgical instrument 3, the type of operation assumed, and the like.

図7は、実施の形態に係る手術支援方法の流れを説明するフローチャートである。本フローチャートにおける処理は、例えば手術支援装置400が起動したときに開始する。   FIG. 7 is a flowchart for explaining the flow of the surgery support method according to the embodiment. The process in this flowchart starts when the surgery support apparatus 400 is activated, for example.

医用画像取得部402は、被術者1の手術部を含む領域に係る3次元の再構成画像を取得する(S2)。第1変換行列取得部404は、画像座標系Cの座標をワールド座標系Cの座標に変換する第1変換行列Qを取得する(S4)。 The medical image acquisition unit 402 acquires a three-dimensional reconstructed image relating to a region including the surgical part of the subject 1 (S2). First transformation matrix acquisition unit 404 acquires the first transformation matrix Q to transform the coordinates of the image coordinate system C M to the coordinates of the world coordinate system C W (S4).

3次元座標取得部406は、手術に用いられる術具3の3次元的な位置座標を取得する(S6)。動画取得部410は、被術者1の術野を撮影した2次元の動画像202を取得する(S8)。   The three-dimensional coordinate acquisition unit 406 acquires the three-dimensional position coordinates of the surgical instrument 3 used for surgery (S6). The moving image acquisition unit 410 acquires a two-dimensional moving image 202 obtained by photographing the surgical field of the subject 1 (S8).

画像解析部412中の術具特定部420は、手術用顕微鏡200から取得した動画像202を解析し、術具3の先端の位置座標を、2次元の位置座標として取得する(S10)。第2変換行列取得部414は、術具3のワールド座標系Cにおける位置座標と、術具3の動画座標系Cの位置座標とをもとに、ワールド座標系Cにおける3次元的な位置座標を、動画座標系Cにおける位置座標に変換する第2変換行列Pを取得する(S12)。 The surgical instrument specifying unit 420 in the image analysis unit 412 analyzes the moving image 202 acquired from the surgical microscope 200, and acquires the position coordinates of the distal end of the surgical instrument 3 as two-dimensional position coordinates (S10). The second transformation matrix acquisition unit 414, the position coordinates in the world coordinate system C W of the surgical instrument 3, the position coordinates of the moving coordinate system C M of the surgical instrument 3 on the basis of three-dimensional in the world coordinate system C W the Do coordinates, obtains a second transformation matrix P P of converting the position coordinates in the moving coordinate system C M (S12).

画像重畳部408は、第1変換行列Qと第2変換行列Pとをもとに、再構成画像を動画像202に重畳し、手術用顕微鏡200に表示させる(S14)。画像解析部412は、手術用顕微鏡200の画角または視線方向の少なくとも一方が変更されたか否かを検出するために、手術用顕微鏡200から取得した動画像202を解析する(S16)。 Image superimposing unit 408, based on a first transformation matrix Q and a second transformation matrix P P, superimposes the reconstructed image to the moving image 202 to be displayed on the surgical microscope 200 (S14). The image analysis unit 412 analyzes the moving image 202 acquired from the surgical microscope 200 in order to detect whether at least one of the angle of view or the line-of-sight direction of the surgical microscope 200 has been changed (S16).

動画像202の画角または視線方向の少なくとも一方が変更されたことを画像解析部412が検出すると(S18のY)、ステップS16の処理に戻ってステップ6からステップ16に至るまでの処理が実行される。動画像202の画角と視線方向とが変更されない場合(S18のN)、手術が終了しない間は(S20のN)、ステップS14からステップS18までの処理が繰り返される。   When the image analysis unit 412 detects that at least one of the angle of view or the line-of-sight direction of the moving image 202 has been changed (Y in S18), the process returns from step S16 to the process from step 6 to step 16 is executed. Is done. When the angle of view and the line-of-sight direction of the moving image 202 are not changed (N in S18), the process from Step S14 to Step S18 is repeated while the operation is not completed (N in S20).

手術が終了すると(S20のY)、本フローチャートにおける処理は終了する。   When the surgery is finished (Y in S20), the processing in this flowchart is finished.

図8は、実施の形態に係る動画像解析処理の流れを説明するフローチャートであり、図7におけるステップS16の処理の流れをより詳細に説明する図である。   FIG. 8 is a flowchart for explaining the flow of the moving image analysis process according to the embodiment, and is a view for explaining the flow of the process of step S16 in FIG. 7 in more detail.

背景領域特定部422は、取得した動画像202のフレーム毎に、背景領域を特定する(S22)。差分画像取得部424は、異なる二つのフレームをペアとして、それらの背景領域の差分画像を取得する(S24)。   The background area specifying unit 422 specifies a background area for each frame of the acquired moving image 202 (S22). The difference image acquisition unit 424 obtains a difference image of the background region using two different frames as a pair (S24).

差分画像解析部426は、差分画像取得部424が取得した差分画像を解析して、手術用顕微鏡200の画角または視線方向の少なくとも一方が変更されたか否かを検出する(S28)。差分画像解析部426によって画角または視線方向の少なくとも一方が変更されたか否かが検出されると、本フローチャートにおける処理は終了する。   The difference image analysis unit 426 analyzes the difference image acquired by the difference image acquisition unit 424 and detects whether or not at least one of the angle of view or the line-of-sight direction of the surgical microscope 200 has been changed (S28). When the difference image analysis unit 426 detects whether or not at least one of the angle of view or the line-of-sight direction has been changed, the processing in this flowchart ends.

以上説明したように、実施の形態に係る手術支援装置400によれば、2次元顕微鏡画像上に3次元の再構成画像を簡便に投影して重畳表示する技術を提供することができる。   As described above, according to the surgery support apparatus 400 according to the embodiment, it is possible to provide a technique for easily projecting and superimposing a three-dimensional reconstructed image on a two-dimensional microscope image.

特に、実施の形態に係る手術支援装置400は、重畳表示のために特別に用意された顕微鏡を用いずに、再構成画像を顕微鏡画像上に重畳することができる。また、重畳表示に際し、例えば顕微鏡のズーム情報等の情報を用いずに、再構成画像と顕微鏡画像とのレジストレーションを実現することができる。このレジストレーションは短時間で終了するため、手術中に顕微鏡の画角または視線方向の少なくとも一方が変更されたとしても、精度の高いレジストレーションを維持することができる。   In particular, the surgery support apparatus 400 according to the embodiment can superimpose the reconstructed image on the microscope image without using a microscope specially prepared for superimposed display. In addition, in the superimposed display, for example, registration of the reconstructed image and the microscope image can be realized without using information such as the zoom information of the microscope. Since this registration is completed in a short time, highly accurate registration can be maintained even if at least one of the angle of view and the line-of-sight direction of the microscope is changed during the operation.

以上、実施の形態に基づき本発明を説明したが、実施の形態は、本発明の原理、応用を示すにすぎない。また、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が可能である。   As mentioned above, although this invention was demonstrated based on embodiment, embodiment only shows the principle and application of this invention. In the embodiment, many modifications and arrangements can be made without departing from the spirit of the present invention defined in the claims.

上記では、MRI画像やCT画像など、3次元の再構成画像と顕微鏡画像とをレジストレーションし、再構成画像の少なくとも一部を顕微鏡画像に重畳する場合について説明した。しかしながら、上記で説明したレジストレーション処理の原理は、再構成画像を顕微鏡画像に重畳表示する場合以外にも適用可能である。例えば、医用の範囲でいうならば、手術用顕微鏡200に代えて、例えば内視鏡の画像に再構成画像を重畳するようにしてもよい。   In the above description, a case has been described in which a three-dimensional reconstructed image such as an MRI image or a CT image is registered with a microscope image, and at least a part of the reconstructed image is superimposed on the microscope image. However, the principle of the registration process described above can be applied to cases other than the case where the reconstructed image is superimposed on the microscope image. For example, in the medical range, instead of the surgical microscope 200, for example, a reconstructed image may be superimposed on an endoscope image.

医用の用途に限らず、上記で説明したレジストレーション処理の原理は、3次元のデータを2次元画像に重畳する場合に広く適用できる。例えば、メガネ型のウェアラブルコンピュータ等、現実世界にAR(Augmented Reality)イメージを重畳する場合等に利用可能である。   The principle of the registration process described above is not limited to medical use, and can be widely applied when three-dimensional data is superimposed on a two-dimensional image. For example, it can be used when superimposing an AR (Augmented Reality) image on the real world, such as a glasses-type wearable computer.

[参考文献]
[1] 井上ら, 脳神経外科手術における顕微鏡重畳ナビゲーションの将来性とその課題〜商用システムの輪郭重畳表示と比較して〜, 日本コンピュータ外科学会誌,Vol.13(3), pp. 211-212, 2011.
[2] P. J. Edwards et al., Design and Evaluation of a System for Microscope-Assisted Guided Interventions(MAGI),MICCAI’99, LNCS 1679, pp. 842-852, 1999.
[3] 村上研二,画像間演算を用いたHough変換による直線抽出の高速化,電気学会論文誌133(8), 1539-1548, 2013.
[4] 藤吉弘亘, Gradientベースの特徴抽出: SIFTとHOG, 情報処理学会研究報告CVIM(160):211-224, 2007.
[References]
[1] Inoue et al., Future Prospects and Challenges of Microscopic Superposition Navigation in Neurosurgery-Comparison with Contour Superposition Display of Commercial Systems-, Journal of Japanese Society of Computer Aided Surgery, Vol.13 (3), pp. 211-212 , 2011.
[2] PJ Edwards et al., Design and Evaluation of a System for Microscope-Assisted Guided Interventions (MAGI), MICCAI '99, LNCS 1679, pp. 842-852, 1999.
[3] Kenji Murakami, Acceleration of line extraction by Hough transform using inter-image arithmetic, IEEJ Transactions 133 (8), 1539-1548, 2013.
[4] Hiroyoshi Fujiyoshi, Gradient-based feature extraction: SIFT and HOG, Information Processing Society of Japan CVIM (160): 211-224, 2007.

3 術具、 100 手術支援システム、 200 手術用顕微鏡、 300 3次元計測装置、 400 手術支援装置、 402 医用画像取得部、 404 第1変換行列取得部、 406 3次元座標取得部、 408 画像重畳部、 410 動画取得部、 412 画像解析部、 414 第2変換行列取得部、 420 術具特定部、 422 背景領域特定部、 424 差分画像取得部、 426 差分画像解析部。   3 surgical tools, 100 surgery support system, 200 surgical microscope, 300 3D measurement device, 400 surgery support device, 402 medical image acquisition unit, 404 first transformation matrix acquisition unit, 406 3D coordinate acquisition unit, 408 image superposition unit 410 moving image acquisition unit, 412 image analysis unit, 414 second transformation matrix acquisition unit, 420 surgical tool identification unit, 422 background region identification unit, 424 difference image acquisition unit, 426 difference image analysis unit.

Claims (5)

被術者の術部を含む領域の再構成画像を取得する医用画像取得部と、
手術に用いられる術具の3次元的な位置座標を取得する3次元座標取得部と、
前記再構成画像に設定された画像座標系の座標を、前記3次元座標取得部が位置座標計測に用いる座標系の座標に変換する第1変換行列を取得する第1変換行列取得部と、
被術者の術野を撮影した2次元動画像を取得する動画取得部と、
前記動画取得部が取得した動画像に設定された2次元座標系における術具の2次元的な位置座標を取得する画像解析部と、
前記3次元座標取得部が取得した術具の3次元的な位置座標と、前記画像解析部が取得した術具の2次元的な位置座標とをもとに、前記3次元的な位置座標を前記2次元的な位置座標に変換する第2変換行列を推定する第2変換行列取得部と、
前記第1変換行列と前記第2変換行列とを用いて、前記再構成画像の少なくとも一部を前記2次元動画像上に2次元画像として重畳する画像重畳部とを備え、
前記画像解析部は、前記動画取得部が取得する動画像を解析して前記動画像の画角または視線方向の少なくとも一方が変更されたか否かを検出し、
前記第2変換行列取得部は、前記画像解析部が画角または視線方向の少なくとも一方の変更を検出することを契機として、前記第2変換行列を推定することを特徴とする手術支援装置。
A medical image acquisition unit for acquiring a reconstructed image of a region including the surgical part of the subject;
A three-dimensional coordinate acquisition unit for acquiring three-dimensional position coordinates of a surgical instrument used for surgery;
A first conversion matrix acquisition unit for acquiring a first conversion matrix for converting the coordinates of the image coordinate system set in the reconstructed image into coordinates of a coordinate system used by the three-dimensional coordinate acquisition unit for position coordinate measurement;
A video acquisition unit that acquires a two-dimensional moving image of the subject's operative field;
An image analysis unit for acquiring a two-dimensional position coordinate of the surgical instrument in a two-dimensional coordinate system set in the moving image acquired by the moving image acquisition unit;
Based on the three-dimensional position coordinates of the surgical tool acquired by the three-dimensional coordinate acquisition unit and the two-dimensional position coordinates of the surgical tool acquired by the image analysis unit, the three-dimensional position coordinates are obtained. A second transformation matrix acquisition unit that estimates a second transformation matrix to be transformed into the two-dimensional position coordinates;
An image superimposing unit that superimposes at least a part of the reconstructed image on the two-dimensional moving image as a two-dimensional image using the first transformation matrix and the second transformation matrix;
The image analysis unit analyzes the moving image acquired by the moving image acquisition unit to detect whether at least one of the angle of view or the line-of-sight direction of the moving image has been changed,
The surgery support device, wherein the second transformation matrix acquisition unit estimates the second transformation matrix when the image analysis unit detects a change in at least one of an angle of view or a line-of-sight direction.
前記画像解析部は、
前記動画像のフレーム毎に背景領域を特定する背景領域特定部と、
前記背景領域特定部が特定した異なるフレーム間の背景画像の差分画像を取得する差分画像取得部と、
前記差分画像取得部が取得して差分画像を解析して、前記動画像の画角または視線方向の少なくとも一方が変更されたか否かを検出する差分画像解析部とを備えることを特徴とする請求項1に記載の手術支援装置。
The image analysis unit
A background area specifying unit for specifying a background area for each frame of the moving image;
A difference image acquisition unit that acquires a difference image of a background image between different frames specified by the background region specifying unit;
The differential image acquisition unit includes a differential image analysis unit that acquires and analyzes the differential image to detect whether at least one of an angle of view or a line-of-sight direction of the moving image has been changed. Item 2. The surgical operation support device according to Item 1.
前記3次元座標取得部が取得する術具の位置座標は、当該術具に備えられた計測の基準となるマーカをもとに計測される位置座標であることを特徴とする請求項1または2に記載の手術支援装置。   The position coordinate of the surgical tool acquired by the three-dimensional coordinate acquisition unit is a position coordinate measured based on a marker serving as a measurement reference provided in the surgical tool. The surgical operation support device described in 1. コンピュータに手術支援機能を実現させるプログラムであって、前記手術支援機能は、
被術者の術部を含む領域の再構成画像を取得する機能と、
手術に用いられる術具の3次元的な位置座標を取得する機能と、
被術者の術野を撮影した2次元動画像を取得する機能と、
前記再構成画像に設定された画像座標系の座標を、3次元的な位置座標の計測に用いる座標系の座標に変換する第1変換行列を取得する機能と、
前記動画像に設定された2次元座標系における術具の2次元的な位置座標を取得する機能と、
前記動画像を解析して取得した2次元動画像の画角または視線方向の少なくとも一方が変更されたか否かを検出する機能と、
前記画角または視線方向の少なくとも一方の変更を検出することを契機として、前記3次元的な位置座標と、前記2次元的な位置座標とをもとに、前記3次元的な位置座標を前記2次元的な位置座標に変換する第2変換行列を推定する機能と、
前記第1変換行列と前記第2変換行列とを用いて、前記再構成画像の少なくとも一部を2次元動画像上に2次元画像として重畳する機能とを含むことを特徴とするプログラム。
A program for realizing a surgery support function on a computer, wherein the surgery support function is:
A function of acquiring a reconstructed image of an area including a surgical part of a subject;
A function of acquiring a three-dimensional position coordinate of a surgical instrument used in surgery;
A function for acquiring a two-dimensional video image of the surgical field of the subject;
A function of acquiring a first conversion matrix for converting coordinates of an image coordinate system set in the reconstructed image into coordinates of a coordinate system used for measurement of three-dimensional position coordinates;
A function of acquiring a two-dimensional position coordinate of the surgical instrument in a two-dimensional coordinate system set in the moving image;
A function of detecting whether or not at least one of an angle of view or a line-of-sight direction of the two-dimensional moving image obtained by analyzing the moving image is changed;
Triggered by detecting a change in at least one of the angle of view or the line-of-sight direction, the three-dimensional position coordinates are determined based on the three-dimensional position coordinates and the two-dimensional position coordinates. A function of estimating a second transformation matrix for transformation into two-dimensional position coordinates;
A program comprising a function of superimposing at least a part of the reconstructed image on a two-dimensional moving image as a two-dimensional image using the first transformation matrix and the second transformation matrix.
手術に用いられる術具の3次元的な位置座標を計測する3次元計測装置と、
被術者の術野を撮影して2次元動画像を生成する顕微鏡と、
情報処理装置とを備え、
前記情報処理装置は、
前記被術者の術部を含む領域の再構成画像を取得する医用画像取得部と、
前記3次元計測装置が計測した3次元的な位置座標を取得する3次元計測部と、
前記顕微鏡が生成した動画像を取得する動画取得部と、
前記再構成画像に設定された画像座標系の座標を、前記3次元計測部が位置座標計測に用いる座標系の座標に変換する第1変換行列を取得する第1変換行列取得部と、
前記顕微鏡が生成する動画像に設定された2次元座標系における術具の2次元的な位置座標を取得する画像解析部と、
前記3次元計測部が取得した術具の3次元的な位置座標と、前記画像解析部が取得した術具の2次元的な位置座標とをもとに、前記3次元的な位置座標を前記2次元的な位置座標に変換する第2変換行列を推定する第2変換行列取得部と、
前記第1変換行列と前記第2変換行列とを用いて、前記再構成画像の少なくとも一部を2次元動画像上に2次元画像として重畳する画像重畳部とを備え、
前記画像解析部は、前記動画取得部が撮影する動画像を解析して前記動画取得部の画角または視線方向の少なくとも一方が変更されたか否かを検出し、
前記第2変換行列取得部は、前記画像解析部が画角または視線方向の少なくとも一方の変更を検出することを契機として、前記第2変換行列を推定する
ことを特徴とする手術支援システム。
A three-dimensional measuring device for measuring the three-dimensional position coordinates of a surgical instrument used in surgery;
A microscope that captures the surgical field of the subject and generates a two-dimensional moving image;
An information processing device,
The information processing apparatus includes:
A medical image acquisition unit for acquiring a reconstructed image of a region including the surgical part of the subject;
A three-dimensional measurement unit that acquires three-dimensional position coordinates measured by the three-dimensional measurement device;
A moving image acquisition unit for acquiring a moving image generated by the microscope;
A first conversion matrix acquisition unit for acquiring a first conversion matrix for converting coordinates of the image coordinate system set in the reconstructed image into coordinates of a coordinate system used by the three-dimensional measurement unit for position coordinate measurement;
An image analysis unit for acquiring a two-dimensional position coordinate of the surgical instrument in a two-dimensional coordinate system set in the moving image generated by the microscope;
Based on the three-dimensional position coordinates of the surgical tool acquired by the three-dimensional measurement unit and the two-dimensional position coordinates of the surgical tool acquired by the image analysis unit, the three-dimensional position coordinates are calculated as described above. A second transformation matrix acquisition unit that estimates a second transformation matrix to be transformed into two-dimensional position coordinates;
An image superimposing unit that superimposes at least a part of the reconstructed image on a two-dimensional moving image as a two-dimensional image using the first transformation matrix and the second transformation matrix;
The image analysis unit analyzes the moving image captured by the moving image acquisition unit to detect whether at least one of the angle of view or the line-of-sight direction of the moving image acquisition unit is changed,
The surgery support system, wherein the second transformation matrix acquisition unit estimates the second transformation matrix when the image analysis unit detects a change in at least one of an angle of view or a line-of-sight direction.
JP2014128555A 2014-06-23 2014-06-23 Surgery support device and surgery support system Active JP6290723B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014128555A JP6290723B2 (en) 2014-06-23 2014-06-23 Surgery support device and surgery support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014128555A JP6290723B2 (en) 2014-06-23 2014-06-23 Surgery support device and surgery support system

Publications (2)

Publication Number Publication Date
JP2016007277A JP2016007277A (en) 2016-01-18
JP6290723B2 true JP6290723B2 (en) 2018-03-07

Family

ID=55225332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014128555A Active JP6290723B2 (en) 2014-06-23 2014-06-23 Surgery support device and surgery support system

Country Status (1)

Country Link
JP (1) JP6290723B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11688053B2 (en) 2019-10-18 2023-06-27 Carl Zeiss Industrielle Messtechnik Gmbh Sensor signal visualization for sensors of coordinate measuring machines and microscopes

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102518492B1 (en) * 2016-01-19 2023-04-05 타이탄 메디칼 아이엔씨. Graphical user interface for a robotic surgical system
KR101848027B1 (en) * 2016-08-16 2018-04-12 주식회사 고영테크놀러지 Surgical robot system for stereotactic surgery and method for controlling a stereotactic surgery robot
CN107564089B (en) * 2017-08-10 2022-03-01 腾讯科技(深圳)有限公司 Three-dimensional image processing method, device, storage medium and computer equipment
JP7469961B2 (en) 2020-05-29 2024-04-17 三菱プレシジョン株式会社 Image processing device and computer program for image processing
CN111759634A (en) * 2020-07-13 2020-10-13 上海卓昕医疗科技有限公司 Mechanical arm and bed matching system and method and clinical application method thereof
CN113547515B (en) * 2021-07-16 2022-07-12 华中科技大学 Coordinate calibration method based on ultrasonic servo surgical robot
CN114302130B (en) * 2021-12-06 2023-03-17 嘉兴智瞳科技有限公司 Intelligent microsurgery imaging device control method and system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3910239B2 (en) * 1996-11-14 2007-04-25 東芝医用システムエンジニアリング株式会社 Medical image synthesizer
JP2005058378A (en) * 2003-08-08 2005-03-10 Olympus Corp Operation observation system
CA2600731A1 (en) * 2005-03-11 2006-09-14 Bracco Imaging S.P.A. Methods and apparati for surgical navigation and visualization with microscope

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11688053B2 (en) 2019-10-18 2023-06-27 Carl Zeiss Industrielle Messtechnik Gmbh Sensor signal visualization for sensors of coordinate measuring machines and microscopes

Also Published As

Publication number Publication date
JP2016007277A (en) 2016-01-18

Similar Documents

Publication Publication Date Title
JP6290723B2 (en) Surgery support device and surgery support system
KR102013866B1 (en) Method and apparatus for calculating camera location using surgical video
US9990744B2 (en) Image registration device, image registration method, and image registration program
US8611988B2 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
JP3910239B2 (en) Medical image synthesizer
JP2016202351A (en) Medical support system, medical support method, image processing apparatus, control method and control program thereof
JP6493877B2 (en) Reference point evaluation apparatus, method and program, and alignment apparatus, method and program
KR101767005B1 (en) Method and apparatus for matching images using contour-based registration
WO2001059708A1 (en) Method of 3d/2d registration of object views to a surface model
KR100346363B1 (en) Method and apparatus for 3d image data reconstruction by automatic medical image segmentation and image guided surgery system using the same
US10102638B2 (en) Device and method for image registration, and a nontransitory recording medium
WO2009027088A9 (en) Augmented visualization in two-dimensional images
US10631948B2 (en) Image alignment device, method, and program
JP6476125B2 (en) Image processing apparatus and surgical microscope system
JP7037810B2 (en) Image processing device, image processing program, and image processing method
CN115105202A (en) Focus confirmation method and system used in endoscopic surgery
US10049480B2 (en) Image alignment device, method, and program
JP6739411B2 (en) Magnetic field distortion calculation device, method and program
CN111743628A (en) Automatic puncture mechanical arm path planning method based on computer vision
Wang et al. 3D surgical overlay with markerless image registration using a single camera
EP1124201A1 (en) Method for 3D/2D registration using multiple views and a surface model of an object
JP6548615B2 (en) Magnetic field distortion calculation device, method and program
Tae-Eun A study of medical image analysis system
Ciucci et al. The NEAR project: Active endoscopes in the operating room

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180208

R150 Certificate of patent or registration of utility model

Ref document number: 6290723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250