JP7012302B2 - Surgery support terminals and programs - Google Patents
Surgery support terminals and programs Download PDFInfo
- Publication number
- JP7012302B2 JP7012302B2 JP2017178979A JP2017178979A JP7012302B2 JP 7012302 B2 JP7012302 B2 JP 7012302B2 JP 2017178979 A JP2017178979 A JP 2017178979A JP 2017178979 A JP2017178979 A JP 2017178979A JP 7012302 B2 JP7012302 B2 JP 7012302B2
- Authority
- JP
- Japan
- Prior art keywords
- bone
- image
- captured image
- femur
- acquisition means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Prostheses (AREA)
Description
本発明は、外科手術、特に、患者の体内に整形外科用のインプラントを取付ける整形外科手術を支援する手術支援端末及びプログラムに関する。 The present invention relates to surgical support terminals and programs that support surgical operations, particularly orthopedic surgery in which implants for orthopedic surgery are attached to the body of a patient.
従来、膝関節や股関節などを金属やセラミックス製の人工関節に置き換える置換手術が知られている。また、脊椎の固定、矯正及び安定化等のために脊椎ケージや人工椎体などを取付け固定する外科手術も知られている。
これらのインプラントを体内の所定位置に取付ける場合、患者に最適の形状及び寸法のものを最適の角度及び位置で設置することが重要である。
Conventionally, replacement surgery is known in which a knee joint or a hip joint is replaced with an artificial joint made of metal or ceramics. In addition, surgical operations for attaching and fixing a spinal cage, an artificial vertebral body, or the like for fixing, correcting, and stabilizing the spine are also known.
When mounting these implants in place within the body, it is important to place the implants in the optimal shape and dimensions for the patient at the optimal angle and position.
そこで、近年では、患者のインプラントの取付部位の医療用断層画像を用いて、取付け予定のインプラントの形状や寸法や取付角度、必要に応じて骨切り量や骨切り位置等をシミュレーションする術前計画が行われるようになっている(例えば、特許文献1参照)。
また、術中に、患者の骨などに固定されたマーカの位置を光学的に追跡し、当該マーカの絶対座標を利用して骨切り量や骨切り位置等を指示するナビゲーションシステムも開発されている。
Therefore, in recent years, a preoperative plan that simulates the shape, dimensions, and mounting angle of the implant to be mounted, and if necessary, the amount of osteotomy and the position of osteotomy, etc., using a medical tomographic image of the implant mounting site of the patient. (See, for example, Patent Document 1).
In addition, a navigation system has been developed that optically tracks the position of a marker fixed to the patient's bone during surgery and uses the absolute coordinates of the marker to indicate the amount of osteotomy and the position of osteotomy. ..
しかしながら、ナビゲーションシステムでは、マーカの着脱作業が必要となるために手術時間がより長時間化してしまい、さらに、患者の骨の手術する部位とは異なる部位にマーカのピンを刺入するために侵襲部位が増大してしまうといった問題がある。 However, in the navigation system, the operation time becomes longer because the marker must be attached and detached, and the marker pin is inserted into a site different from the surgical site of the patient's bone, which is invading. There is a problem that the part increases.
さらに、ナビゲーションシステムは、高額で装置自体も大きく、普及率が高くないといった問題もある。なお、例えば、三次元空間の一つの軸方向(例えば、Z軸方向等)の精度を犠牲することで比較的安いコストで導入可能な簡易型のナビゲーションシステムも開発されているが、このシステムでは、術中に高精度での手術支援を実現することは困難である。例えば、膝関節を人工膝関節に置換する手術の場合、脛骨の回旋方向を適正に特定することができないために、骨切りやインプラントの取付けを案内する治具の取付け精度が低下し、結果として、インプラントの取付け精度が低下してしまう。 Further, the navigation system has a problem that it is expensive, the device itself is large, and the penetration rate is not high. For example, a simple navigation system that can be introduced at a relatively low cost by sacrificing the accuracy of one axial direction (for example, the Z-axis direction) of a three-dimensional space has also been developed. , It is difficult to realize highly accurate surgical support during surgery. For example, in the case of surgery to replace the knee joint with an artificial knee joint, the rotation direction of the tibia cannot be properly specified, and as a result, the mounting accuracy of the jig that guides the osteotomy and implant mounting is reduced, and as a result. , Implant mounting accuracy is reduced.
加えて、上記のシステムでは、術前に撮像された患者のインプラントの取付部位の医療用断層画像を用いて計画されたデータを基に、術中に手術支援を行うようになっているため、例えば、骨切りが行われる手術では、術中に骨切り後の骨の状態を反映させて手術支援を行うことができないといった問題もある。 In addition, the above system provides intraoperative surgical support based on data planned using preoperatively imaged medical tomographic images of the patient's implant attachment site, for example. In the surgery in which the osteotomy is performed, there is also a problem that the surgical support cannot be performed by reflecting the condition of the bone after the osteotomy during the operation.
本発明は、このような問題に鑑みてなされたものであり、外科手術の術中支援を高精度で、且つ、低コストで行うことを課題とする。 The present invention has been made in view of such a problem, and an object of the present invention is to provide intraoperative support for surgery with high accuracy and at low cost.
上記課題を解決するため、本発明の一態様の手術支援端末は、
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨にインプラントを取り付ける際に用いられる手術支援端末であって、
前記大腿骨又は前記脛骨のうち患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する前記インプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段と、
前記撮像部が撮像した患者の前記骨の表面の撮像画像を逐次取得する撮像画像取得手段と、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段と、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて前記表示部に表示させる第1表示制御手段と、
を備えることを特徴としている。
In order to solve the above problems, the surgical support terminal according to one aspect of the present invention is
It is a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, and is used when attaching an implant to the femur or tibia.
To guide and support the attachment of the implant to the bone on the reference image relating to the three-dimensional shape of the femur or the tibia to which the patient's implant is to be attached and the three-dimensional model based on the reference image. The first acquisition means for acquiring the jig information including at least one of the orientation and the position of the jig of
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the first acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the jig information acquired by the first acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A first display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig and displaying it on the display unit.
It is characterized by having.
また、本発明の一態様の手術支援端末は、
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨の骨加工を行う際に用いられる手術支援端末であって、
前記大腿骨又は前記脛骨のうち患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段と、
前記撮像部が撮像した患者の前記骨の表面の撮像画像を逐次取得する撮像画像取得手段と、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段と、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて前記表示部に表示させる第2表示制御手段と、
を備えることを特徴としている。
Further, the surgical support terminal according to one aspect of the present invention is
It is a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, and is used when performing bone processing on the femur or tibia.
A reference image relating to the three-dimensional shape of the femur or the tibia to be processed in the patient's bone, and the direction and position of one bone processing with respect to the bone on the three-dimensional model based on the reference image. A second acquisition means for acquiring bone processing information including at least one of them,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the second acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A second display control means for superimposing a second augmented reality image that virtually represents at least one of the directions and positions of the one bone processing and displaying it on the display unit.
It is characterized by having.
本発明の一態様のプログラムは、
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨にインプラントを取り付ける際に用いられる手術支援端末のコンピュータを、
前記大腿骨又は前記脛骨のうち患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する前記インプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段、
前記撮像部が撮像した患者の前記骨の表面の撮像画像を逐次取得する撮像画像取得手段、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて前記表示部に表示させる第1表示制御手段、
として機能させることを特徴としている。
The program of one aspect of the present invention is
A computer for a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, which is used when attaching an implant to the femur or tibia .
To guide and support the attachment of the implant to the bone on the reference image relating to the three-dimensional shape of the femur or the tibia to which the patient's implant is to be attached and the three-dimensional model based on the reference image. First acquisition means for acquiring jig information including at least one of the orientation and position of the jig,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the first acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the jig information acquired by the first acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A first display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig and displaying it on the display unit.
It is characterized by functioning as.
本発明の一態様のプログラムは、
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨の骨加工を行う際に用いられる手術支援端末のコンピュータを、
前記大腿骨及び前記脛骨のうち患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段、
前記撮像部が撮像した患者の前記骨の表面の撮像画像を逐次取得する撮像画像取得手段、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて前記表示部に表示させる第2表示制御手段、
として機能させることを特徴としている。
The program of one aspect of the present invention is
A computer of a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, which is used when processing the bones of the femur or tibia .
A reference image relating to the three-dimensional shape of the femur and the tibia to be processed in the patient's bone, and the direction and position of one bone processing with respect to the bone on the three-dimensional model based on the reference image. A second acquisition means for acquiring bone processing information including at least one of them,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the second acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A second display control means for superimposing a second augmented reality image that virtually represents at least one of the directions and positions of the one bone processing and displaying it on the display unit.
It is characterized by functioning as.
本発明によれば、外科手術の術中支援を高精度で、且つ、低コストで行うことができる。 According to the present invention, intraoperative support for surgery can be performed with high accuracy and at low cost.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, a specific embodiment of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
[実施形態1]
以下に、本発明を適用した実施形態1の手術支援システム100について、図1~図6を参照して説明する。
図1は、実施形態1の手術支援システム100の概略構成を模式的に示す図である。また、図2は、手術支援システム100が用いられる人工膝関節置換術を説明するための斜視図である。
なお、図2及び後述する図7には、手術台T上での患者Pが固定されていない状態を表しているが、医者が外科手術を施術し易くなるように固定されていても良い。
[Embodiment 1]
Hereinafter, the
FIG. 1 is a diagram schematically showing a schematic configuration of the
Although FIG. 2 and FIG. 7 described later show a state in which the patient P on the operating table T is not fixed, it may be fixed so that the doctor can easily perform the surgical operation.
実施形態1の手術支援システム100は、人工膝関節置換術(図2参照)に用いられるシステムであり、具体的には、図1に示すように、病院内に設置された病院端末1と、外科手術の術中支援を行う第1手術支援端末2とを備えている。また、病院端末1と第1手術支援端末2とは、無線通信回線(例えば、無線LAN(Local Area Network)等)を介して情報通信可能に接続されている。
The
<病院端末>
先ず、病院端末1について、図3を参照して詳細に説明する。図3は、病院端末1の機能的構成を示すブロック図である。
病院端末1は、例えば、PC(Personal Computer)等から構成され、人工膝関節置換術の術前計画を行うためのものである。具体的には、図3に示すように、病院端末1は、中央制御部101と、メモリ102と、記憶部103と、表示部104と、操作部105と、通信制御部106とを備えている。また、病院端末1の各部は、バス107を介して接続されている。
<Hospital terminal>
First, the
The
中央制御部101は、当該病院端末1の各部を制御するものである。すなわち、中央制御部101は、図示は省略するが、CPU(Central Processing Unit)を備え、CPUは、記憶部103に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出し、メモリ102のワークエリアに展開し、当該プログラムに従って各種処理を実行する。その際に、中央制御部101のCPUは、メモリ102内に各種処理結果を格納させ、必要に応じてその処理結果を表示部104に表示させる。
The
メモリ102は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部101のCPUにより読み出された各種のプログラムやデータを一時的に格納するワークエリアを有している。
The
記憶部103は、例えば、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、HDD(Hard Disk Drive)等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。
具体的には、記憶部103は、断層画像データI、術前計画用プログラム103a等を記憶している。
The
Specifically, the
断層画像データIは、例えば、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging system)装置などの医療用断層画像診断装置(図示略)により患者Pの人工関節により置換される患部が撮像された画像データである。すなわち、断層画像データIは、例えば、人工膝関節置換術前に、医療用断層画像診断装置により患者Pの膝関節を構成する脛骨B1a及び大腿骨B1bが撮像された画像データである。
なお、断層画像データIは、医療用断層画像診断装置から院内LAN等のネットワークを介して病院端末1に送信されたものであっても良いし、メモリカード等の記憶媒体を介して病院端末1により取得されたものであっても良い。
The tomographic image data I is captured by a medical tomographic image diagnostic device (not shown) such as an X-ray CT (Computed Tomography) device or an MRI (Magnetic Resonance Imaging system) device to capture the affected area to be replaced by the artificial joint of the patient P. It is the image data that has been made. That is, the tomographic image data I is, for example, image data in which the tibia B1a and the femur B1b constituting the knee joint of the patient P are imaged by a medical tomographic image diagnostic apparatus before the total knee arthroplasty.
The tomographic image data I may be transmitted from the medical tomographic image diagnostic device to the
術前計画用プログラム103aは、人工関節置換術の術前計画処理に係る機能を実現させるプログラムである。
すなわち、中央制御部101のCPUは、記憶部103から術前計画用プログラム103aを読み出して、この術前計画用プログラム103aに従って、取付け予定の人工膝関節(脛骨側部材や大腿骨側部材等の人工関節構成部材)の形状や寸法、脛骨B1aに刺入される脛骨髄内ロッドの向き及び刺入点の位置、脛骨B1aの骨切り位置、大腿骨B1bに刺入される大腿骨髄内ロッドの向き及び刺入点の位置、大腿骨B1bの骨切り位置等をシミュレーションにより特定する。
The
That is, the CPU of the
なお、術前計画処理は、公知の技術であり、ここでは詳細な説明は省略するが、例えば、中央制御部101のCPUは、上記した断層画像データIから患者Pの脛骨B1aや大腿骨B1bの三次元形状を表す画像データを生成する。そして、中央制御部101のCPUは、表示部104に表示された脛骨B1aや大腿骨B1bの三次元モデル上で座標系を構築し、人工膝関節を構成する脛骨側部材や大腿骨側部材(人工関節構成部材)の設置予定位置等をシミュレーションして特定する。
The preoperative planning process is a known technique, and although detailed description thereof will be omitted here, for example, the CPU of the
また、中央制御部101のCPUは、断層画像データIに基づいて表示部104に表示された脛骨B1a及び大腿骨B1bの三次元モデル上での、脛骨B1aや大腿骨B1bに対する脛骨側部材や大腿骨側部材の取付けを案内支援するための治具の適切な向き及び位置のうちの少なくとも一方を含む治具情報をシミュレーションして生成する。この治具情報は、シミュレーションにより自動的に生成されても良いし、医者による操作部105の所定操作に基づいて治具の向きや位置の微調整が行われても良い。
Further, the CPU of the
具体的には、治具情報には、例えば、脛骨B1aに対する脛骨側部材の取付けを案内支援するために脛骨B1aに刺入される脛骨髄内ロッドの向き及び刺入点の位置、脛骨髄内ロッドを基準として脛骨B1aの骨切りを案内する脛骨骨切り案内部材の向き及び設置位置、大腿骨B1bに対する大腿骨側部材の取付けを案内支援するために大腿骨B1bに刺入される大腿骨髄内ロッドの向き及び刺入点の位置、大腿骨髄内ロッドを基準として大腿骨B1bの骨切りを案内する大腿骨骨切り案内部材の向き及び設置位置等が含まれる。 Specifically, the jig information includes, for example, the direction of the intrashineral rod inserted into the tibia B1a to guide and support the attachment of the tibial side member to the tibia B1a, the position of the insertion point, and the inside of the tibia. The orientation and installation position of the tibial osteotomy guide member that guides the osteotomy of the tibial bone B1a with reference to the rod, and the inside of the femoral bone that is inserted into the femoral bone B1b to guide and support the attachment of the femoral bone side member to the femoral bone B1b. The orientation of the rod, the position of the insertion point, the orientation of the femoral osteotomy guide member for guiding the osteotomy of the femoral bone B1b with reference to the rod in the femoral bone, and the installation position are included.
また、中央制御部101のCPUは、下肢の機能軸、大腿骨B1bの骨頭中心の位置、大腿骨B1bの機能軸、大腿骨B1bの前方皮質近似平面、脛骨B1aの機能軸、内/外反角、屈曲・伸展角、回旋角等の各種の術中支援パラメータを生成しても良い。
Further, the CPU of the
表示部104は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等から構成されている。また、表示部104には、中央制御部101のCPUから出力されて入力される表示信号の指示に従って、各種画面を表示する。
The
操作部105は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等を備えている。そして、操作部105は、これらキーボードやマウスの操作に応じて所定の操作信号を中央制御部101に出力する。
The
通信制御部106は、第1手術支援端末2との間で情報通信を行う。
すなわち、通信制御部106は、例えば、無線LANモジュール等を有し、外部のアクセスポイント(固定基地局)を経由せずに直接第1手術支援端末2の通信制御部208との間で無線通信回線を構築するPeer to Peer(アドホックモード)で動作する。例えば、通信制御部106は、無線通信回線の通信方式、暗号化情報、チャンネル、IPアドレス等の各種情報を無線通信可能範囲内に存する第1手術支援端末2の通信制御部208に送信して、この第1手術支援端末2の通信制御部208との間で無線LAN等の無線通信回線を構築して信号の送受信を行う。
具体的には、通信制御部106は、患者Pの断層画像データIや、術前計画処理により生成された術前計画データD(図4参照)を第1手術支援端末2の通信制御部208に送信する。
The
That is, the
Specifically, the
なお、通信制御部106は、例えば、無線通信可能範囲内に存するアクセスポイントとの間で無線通信回線を構築して、当該無線通信回線を介して第1手術支援端末2の通信制御部208との間で信号の送受信を行うインフラストラクチャモードで動作しても良い。
The
<第1手術支援端末>
次に、第1手術支援端末2について、図4を参照して詳細に説明する。図4は、第1手術支援端末2の機能的構成を示すブロック図である。
第1手術支援端末2は、例えば、スマートフォン、タブレット等から構成され、人工膝関節置換術の術中支援を行うためのものである。具体的には、図4に示すように、第1手術支援端末2は、中央制御部201と、メモリ202と、記憶部203と、撮像部204と、信号処理部205と、表示部206と、操作部207と、通信制御部208とを備えている。また、第1手術支援端末2の各部は、バス209を介して接続されている。
<First surgery support terminal>
Next, the first
The first
中央制御部201は、当該第1手術支援端末2の各部を制御するものである。すなわち、中央制御部201は、図示は省略するが、CPUを備え、CPUは、記憶部203に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出し、メモリ202のワークエリアに展開し、当該プログラムに従って各種処理を実行する。その際に、中央制御部201のCPUは、メモリ202内に各種処理結果を格納させ、必要に応じてその処理結果を表示部206に表示させる。
The
メモリ202は、例えば、DRAM等により構成され、中央制御部201のCPUにより読み出された各種のプログラムやデータを一時的に格納するワークエリアを有している。
The
記憶部203は、例えば、フラッシュメモリ、EEPROM等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。
具体的には、記憶部203は、第1取得プログラム203a、撮像画像取得プログラム203b、推定プログラム203c、第1特定プログラム203d、第1表示制御プログラム203e、断層画像データI、術前計画データD等を記憶している。
The
Specifically, the
第1取得プログラム203aは、基準画像及び治具情報を取得する第1取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第1取得プログラム203aを読み出して、この第1取得プログラム203aに従って、第1取得処理を行う。ここで、中央制御部201のCPUは、第1取得プログラム203aとの協働により、第1取得手段として機能する。
The
That is, the CPU of the
具体的には、中央制御部201のCPUは、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている断層画像データI、すなわち、人工膝関節置換術前に医療用断層画像診断装置により撮像された断層画像データIを記憶部203から読み出して取得する。そして、中央制御部201のCPUは、患者Pの人工膝関節が取り付けられる予定の脛骨B1a及び大腿骨B1bの三次元形状を表す基準画像の画像データを生成して取得する。
Specifically, the CPU of the
また、中央制御部201のCPUは、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている術前計画データDを記憶部203から読み出して取得する。すなわち、中央制御部201のCPUは、断層画像データIに基づく脛骨B1aや大腿骨B1bの三次元モデル上での、脛骨B1aや大腿骨B1bに対する脛骨側部材や大腿骨側部材の取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報を含む術前計画データDを取得する。
Further, the CPU of the
撮像画像取得プログラム203bは、撮像画像F(図6(a)等参照)を逐次取得する撮像画像取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から撮像画像取得プログラム203bを読み出して、この撮像画像取得プログラム203bに従って、撮像画像取得処理を行う。ここで、中央制御部201のCPUは、撮像画像取得プログラム203bとの協働により、撮像画像取得手段として機能する。
The captured
That is, the CPU of the
具体的には、中央制御部201のCPUは、手術台T上の患者Pの骨Bの表面が撮像された撮像画像Fを取得する。例えば、人工膝関節置換術中に、手術台T上の患者Pの脛骨B1aや大腿骨B1bが内側部側から膝関節の関節面が写るように撮像部204により撮像されると、撮像部204の撮像制御部は、電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して信号処理部205に出力させる。このとき、脛骨B1aや大腿骨B1bが画角内の所定位置(例えば、略中央等)に存し、且つ、所定の大きさで写るように撮像部204により撮像されるのが好ましい。そして、信号処理部205は、フレーム画像のアナログ値の信号に対して各種の画像信号処理を施して、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成してメモリ202に出力する。中央制御部201のCPUは、メモリ202からフレーム画像(撮像画像F)のデジタル値の画像データ(YUVデータ)を逐次取得する。
Specifically, the CPU of the
なお、撮像画像Fは、後述するように、脛骨B1aや大腿骨B1b等の骨Bの少なくとも基準画像との照合に用いられる特徴点に対応する一部分(例えば、脛骨近位前方内側部や大腿骨遠位前方内側部等)が撮像されていれば良い。 As will be described later, the captured image F is a part corresponding to a feature point used for collation with at least a reference image of bone B such as tibia B1a and femur B1b (for example, proximal anterior medial part of tibia and femur). It suffices if the distal anterior medial part, etc.) is imaged.
推定プログラム203cは、撮像画像F内での患者Pの骨Bの姿勢を推定する推定処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から推定プログラム203cを読み出して、この推定プログラム203cに従って、推定処理を行う。ここで、中央制御部201のCPUは、推定プログラム203cとの協働により、推定手段として機能する。
The
That is, the CPU of the
具体的には、中央制御部201のCPUは、撮像画像取得処理により逐次取得された撮像画像F(例えば、脛骨B1aや大腿骨B1bの表面形状を表す撮像画像F等)を第1取得処理により取得された基準画像(例えば、脛骨B1aや大腿骨B1bを表す基準画像等)と照合して、その照合結果に基づいて撮像画像F内での患者Pの骨Bの姿勢を推定する。
Specifically, the CPU of the
ここで、撮像画像Fと基準画像とを照合する手法は、公知の技術であるので、詳細な説明を省略するが、例えば、中央制御部201のCPUは、骨Bの三次元形状を表す基準画像を任意の二次元平面に投影した画像(3D/2D変換画像)を複数生成し、撮像画像F内から抽出した特徴点の特徴量(例えば、SIFT(Scale-Invariant Features Transform)特徴量やSURF(Speeded Up Robust Features)特徴量等)の類似度が最も高くなる画像を探索する。このとき、必要に応じて3D/2D変換画像や撮像画像Fの拡大縮小を行っても良い。
Here, since the method of collating the captured image F with the reference image is a known technique, detailed description thereof will be omitted. For example, the CPU of the
また、中央制御部201のCPUは、類似度が最も高くなった画像に対応する骨Bの三次元モデル上での当該骨Bを構成する各点の座標位置、撮像画像F内での患者Pの骨Bを構成する各点の座標位置等に基づいて、所定の座標変換式を解いて、当該第1手術支援端末2に対する患者Pの骨Bの姿勢及び位置関係を表す行列を推定する。このとき、画像からの幾何学的なモデルのパラメータの推定精度を向上させるためのバンドル調整を行っても良い。
Further, the CPU of the
なお、撮像画像Fとして、患者Pの骨Bが画角内の所定位置(例えば、略中央等)に存し、且つ、所定の大きさで写るように撮像部204により撮像された撮像画像Fを用いる場合、必ずしも撮像画像F内での骨Bの位置を推定する必要はないと考えられるが、当該推定結果を利用する各種処理(第1特定処理や第1表示制御処理等;後述)をより適正に行う上では、撮像画像F内での骨Bの姿勢及び位置の推定を行うのが好ましい。
As the captured image F, the captured image F captured by the
また、撮像画像Fと基準画像との照合において、例えば、撮像対象となる骨Bの形状や状態、撮像する際の第1手術支援端末2の向きや位置、撮像環境の明るさや光の方向等によっては、特徴点や特徴量の抽出を適正に行うことができない虞がある。そこで、予め骨Bの特徴的な形状部分(例えば、脛骨近位前方内側部や大腿骨遠位前方内側部等)を基準画像内で指定して登録(レジストレーション)しておき、撮像部204による骨Bの撮像の際に、当該特徴的な形状部分を所定の指示棒(図示略)などを用いて指示することで、特徴点や特徴量の抽出をより適正に行うことができるようにしても良い。
Further, in collation between the captured image F and the reference image, for example, the shape and state of the bone B to be imaged, the orientation and position of the first
また、特徴点の特徴量を用いた撮像画像Fと基準画像との照合に換えて、或いは、併用して、例えば、レーザーメスなどを用いて予め骨Bの所定位置(例えば、骨切りにより切除される位置等)に位置合わせ用のマーカを付けておき、当該マーカを撮像してその姿勢を推定し、推定結果から患者Pの骨Bの姿勢を推定するようにしても良い。 In addition, instead of collating the captured image F using the feature amount of the feature point with the reference image, or in combination with each other, the bone B is previously excised at a predetermined position (for example, by osteotomy) using a laser scalpel or the like. A marker for alignment may be attached to the position to be performed, etc.), the marker may be imaged to estimate the posture, and the posture of the bone B of the patient P may be estimated from the estimation result.
第1特定プログラム203dは、治具(図示略)の向きや位置を特定する第1特定処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第1特定プログラム203dを読み出して、この第1特定プログラム203dに従って、第1特定処理を行う。ここで、中央制御部201のCPUは、第1特定プログラム203dとの協働により、第1特定手段として機能する。
The first specific program 203d is a program that realizes a function related to the first specific process for specifying the direction and position of a jig (not shown).
That is, the CPU of the
具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での患者Pの骨B(例えば、脛骨B1aや大腿骨B1b等)の姿勢(好ましくは、姿勢及び位置)と、第1取得処理により取得された治具情報を含む術前計画データDとに基づいて、撮像画像F内の患者Pの骨Bに対する治具の向き及び位置のうちの少なくとも一方を特定する。
Specifically, the CPU of the
例えば、脛骨B1aの場合、中央制御部201のCPUは、撮像画像F内での脛骨B1aの姿勢と、治具情報に含まれる脛骨B1aの三次元モデル上での脛骨B1aに刺入される脛骨髄内ロッドの向き及び刺入点の位置とに基づいて、撮像画像F内の脛骨B1aの座標系と当該脛骨B1aの三次元モデルの座標系の位置合わせを行って、撮像画像F内の脛骨B1aの座標系での当該脛骨B1aに対する脛骨髄内ロッドの向き及び刺入点の位置を特定する。また、例えば、脛骨B1aに対して脛骨髄内ロッドが刺入された場合、中央制御部201のCPUは、撮像画像F内での脛骨B1aの姿勢と、治具情報に含まれる脛骨B1aの三次元モデル上での脛骨骨切り案内部材の向き及び設置位置とに基づいて、撮像画像F内の脛骨B1aの座標系と当該脛骨B1aの三次元モデルの座標系の位置合わせを行って、撮像画像F内の脛骨B1aに対する脛骨骨切り案内部材の向き及び設置位置を特定する。
For example, in the case of the tibia B1a, the CPU of the
また、大腿骨B1bの場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、大腿骨髄内ロッドの向き及び刺入点の位置、大腿骨骨切り案内部材の向き及び設置位置の特定に、例えば、撮像画像F内の大腿骨B1bの座標系での当該大腿骨B1bの骨頭中心の位置が必要となる場合がある。
この場合、例えば、第1手術支援端末2を患者Pの大腿骨B1bの遠位端側の所定位置に所定の固定機構を介して固定(例えば、骨切りにより切除される位置に螺合したり、切除されない位置をクランプしたりして固定;図示略)し、この状態で、当該大腿骨B1bの遠位端側を回動させた際の角速度や角加速度等を第1手術支援端末2の角速度センサ(図示略)を用いて測定することで、当該大腿骨B1bの骨頭中心の位置の絶対座標を算出する。そして、算出された大腿骨B1bの骨頭中心の位置の絶対座標から撮像画像F内の大腿骨B1bの座標系での当該大腿骨B1の骨頭中心の位置を特定するようにしても良い。
Further, in the case of the femur B1b, the processing content is substantially the same, and although detailed description thereof is omitted here, the orientation of the femoral intramedullary rod and the position of the insertion point, the orientation of the femoral osteotomy guide member, and the installation position For example, the position of the center of the head of the femur B1b in the coordinate system of the femur B1b in the captured image F may be required.
In this case, for example, the first
なお、この手法による撮像画像F内の大腿骨B1bの座標系での当該大腿骨B1bの骨頭中心の位置の特定は、上記した推定処理における撮像画像Fと基準画像との照合の際に行っても良く、これにより、撮像画像F内での大腿骨B1bの姿勢の推定をより適正に行うことができる。 The position of the center of the head of the femur B1b in the coordinate system of the femur B1b in the captured image F by this method is specified when the captured image F and the reference image are collated in the above estimation process. This also makes it possible to more accurately estimate the posture of the femur B1b in the captured image F.
第1表示制御プログラム203eは、拡張現実(augmented reality:AR)技術を用いて、表示部206の表示パネル206aに拡張現実画像を表示させる第1表示制御処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第1表示制御プログラム203eを読み出して、この第1表示制御プログラム203eに従って、第1表示制御処理を行う。ここで、中央制御部201のCPUは、第1表示制御プログラム203eとの協働により、第1表示制御手段として機能する。
具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での骨B(例えば、脛骨B1aや大腿骨B1b等)の姿勢(好ましくは、姿勢及び位置)と、第1取得処理により取得された治具情報とに基づいて、撮像画像取得処理により逐次取得された撮像画像Fに、治具の向き及び位置のうちの少なくとも一方を拡張現実技術を用いて仮想的に表す第1拡張現実画像AR1を重畳させて表示パネル206aに表示させる(図6(a)及び図6(b)参照)。より具体的には、中央制御部201のCPUは、第1特定処理により特定された撮像画像F内の患者Pの骨Bに対する治具の向き及び位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。
The first display control program 203e is a program that realizes a function related to the first display control process for displaying an augmented reality image on the
That is, the CPU of the
Specifically, the CPU of the
例えば、脛骨B1aの場合、中央制御部201のCPUは、撮像画像F内の脛骨B1aに対する脛骨髄内ロッドの向き及び当該脛骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる(図6(a)参照)。また、例えば、脛骨B1aに対して脛骨髄内ロッドが刺入されると、中央制御部201のCPUは、撮像画像F内の脛骨B1aに対する脛骨骨切り案内部材の向き及び位置を仮想的に表す第1拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。
For example, in the case of the tibia B1a, the CPU of the
また、大腿骨B1bの場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、例えば、図6(b)に示すように、中央制御部201のCPUは、撮像画像F内の大腿骨B1bに対する大腿骨髄内ロッドの向き及び当該大腿骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。
Further, in the case of the femur B1b, the processing content is substantially the same, and detailed description thereof will be omitted here. However, for example, as shown in FIG. 6B, the CPU of the
第1拡張現実画像AR1としては、図6(a)及び図6(b)に示すように、長尺な円柱形状のものを例示したが、一例であってこれに限られるものではなく、形状や寸法は適宜任意に変更可能である。また、第1拡張現実画像AR1は、撮像画像Fに重畳表示されるものであるため、図6(a)や図6(b)に示すような半透過の状態か、或いは、外形のみが識別可能に表示された透過状態として、ユーザ(例えば、医者等)による当該撮像画像F内での骨Bの視認を妨げないようにするのが好ましい。 As the first augmented reality image AR1, as shown in FIGS. 6 (a) and 6 (b), a long cylindrical shape is exemplified, but the shape is not limited to this as an example. And dimensions can be changed as appropriate. Further, since the first augmented reality image AR1 is superimposed and displayed on the captured image F, it is in a semi-transparent state as shown in FIGS. 6A and 6B, or only the outer shape is identified. It is preferable that the transparent state displayed as possible does not interfere with the visual recognition of the bone B in the captured image F by the user (for example, a doctor or the like).
なお、図6(a)にあっては、患者Pの脛骨B1a以外の部分の図示は省略し、同様に、図6(b)にあっては、患者Pの大腿骨B1b以外の部分の図示は省略しているが、実際には、脛骨B1aや大腿骨B1bの周囲の組織(例えば、軟骨、腱、靱帯、皮膚等)も撮像部204により撮像されて表示パネル206aに表示された状態となる。
In addition, in FIG. 6A, the illustration of the portion other than the tibia B1a of the patient P is omitted, and similarly, in FIG. 6B, the illustration of the portion other than the femur B1b of the patient P is shown. Is omitted, but in reality, the tissues around the tibia B1a and the femur (for example, cartilage, tendon, ligament, skin, etc.) are also imaged by the
撮像部204は、手術台T上の患者Pの骨Bの表面を撮像する。具体的には、撮像部204は、例えば、図示は省略するが、レンズ部と、電子撮像部と、撮像制御部とを備えている。
The
レンズ部は、例えば、ズームレンズやフォーカスレンズ等の複数のレンズ(図示略)から構成されている。
電子撮像部は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ(図示略)から構成され、レンズ部の各種レンズを通過した光学像を二次元の画像信号に変換する。
撮像制御部は、タイミング発生器やドライバ(図示略)等により電子撮像部を走査駆動して、所定周期毎にレンズ部により結像された光学像を電子撮像部により二次元の画像信号に変換させ、当該電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して信号処理部205に出力させる。
The lens unit is composed of a plurality of lenses (not shown) such as a zoom lens and a focus lens, for example.
The electronic imaging unit is composed of, for example, an image sensor (not shown) such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal-oxide Semiconductor), and a two-dimensional image signal is obtained from an optical image that has passed through various lenses of the lens unit. Convert to.
The image pickup control unit scans and drives the electronic image pickup unit by a timing generator, a driver (not shown), etc., and converts the optical image formed by the lens unit into a two-dimensional image signal by the electronic image pickup unit at predetermined intervals. Then, the frame image for each screen is read out from the image pickup area of the electronic image pickup unit and output to the
信号処理部205は、電子撮像部から転送されたフレーム画像のアナログ値の信号に対して各種の画像信号処理を施す。
具体的には、信号処理部205は、例えば、フレーム画像のアナログ値の信号に対してRGBの色成分毎に適宜ゲイン調整し、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行って、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
また、信号処理部205は、生成された輝度信号Y及び色差信号Cb,Crをバッファメモリとして使用されるメモリ202に出力する。
The
Specifically, the
Further, the
表示部206は、例えば、中央制御部201のCPUの制御下にて各種情報を表示領域内に表示する。具体的には、表示部206は、例えば、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダ等を備え、中央制御部201のCPUによる各種のアプリケーションプログラムの実行に基づいて、アプリケーション画面を生成し、生成されたアプリケーション画面のデータを表示パネル206aに出力する。
なお、表示パネル206aは、例えば、液晶表示パネルや有機EL表示パネル等から構成されている。
The
The
操作部207は、当該第1手術支援端末2の所定操作を行うためのものである。具体的には、操作部207は、電源のON/OFF操作に係る電源ボタン、撮像指示に係るシャッタボタン、各種のモードや機能等の選択指示に係るボタン等(何れも図示略)を備えている。そして、ユーザにより各種ボタンが操作されると、操作部207は、操作されたボタンに応じた操作指示を中央制御部201に出力する。中央制御部201は、操作部207から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像等)を各部に実行させる。
なお、操作部207は、表示部206の表示パネル206aと一体となって設けられたタッチパネル(図示略)を有していても良い。
The
The
通信制御部208は、病院端末1との間で情報通信を行う。
すなわち、通信制御部208は、例えば、病院端末1の通信制御部106と略同様に、無線LANモジュール等を有し、Peer to Peer(アドホックモード)やインフラストラクチャモードで動作する。
具体的には、通信制御部208は、病院端末1の通信制御部106から送信された患者Pの断層画像データIや術前計画データDを受信する。なお、通信制御部208により受信された断層画像データIや術前計画データDは、記憶部203に出力されて当該記憶部203に記憶される。
The
That is, the
Specifically, the
<第1術中支援処理>
以下に、人工膝関節置換術における第1術中支援処理について、図5及び図6を参照して説明する。
図5は、第1手術支援端末2を用いた第1術中支援処理に係る動作の一例を示すフローチャートである。また、図6(a)及び図6(b)は、第1術中支援処理にて第1手術支援端末2の表示パネル206aに表示される表示画面の一例を模式的に示す図である。
<1st intraoperative support processing>
The first intraoperative support process in total knee arthroplasty will be described below with reference to FIGS. 5 and 6.
FIG. 5 is a flowchart showing an example of an operation related to the first intraoperative support process using the first
なお、以下の説明では、予め病院端末1にて人工膝関節置換術の術前計画処理が行われて、当該病院端末1から断層画像データI及び術前計画データDが第1手術支援端末2に送信されて、記憶部203に記憶されているものとする。
In the following description, preoperative planning processing for total knee arthroplasty is performed in advance on the
図5に示すように、先ず、中央制御部201のCPUは、患者Pの人工膝関節が取り付けられる予定の脛骨B1a及び大腿骨B1bの三次元形状を表す基準画像、並びに、治具情報を含む術前計画データDを取得する(ステップS1;第1取得処理)。
具体的には、中央制御部201のCPUは、第1取得プログラム203aに従って、記憶部203から断層画像データIを読み出して取得し、患者Pの脛骨B1a及び大腿骨B1bの三次元形状を表す基準画像の画像データを生成して取得する。また、中央制御部201のCPUは、脛骨B1aや大腿骨B1bに対する人工関節構成部材の取付けを案内支援するための脛骨髄内ロッド、脛骨骨切り案内部材、大腿骨髄内ロッド、大腿骨骨切り案内部材等の治具に係る治具情報を含む術前計画データDを取得する。
As shown in FIG. 5, first, the CPU of the
Specifically, the CPU of the
次に、中央制御部201のCPUは、脛骨B1a及び大腿骨B1bのうち、ユーザによる操作部207の所定操作に基づいて指定された一方の骨B(例えば、脛骨B1a等)を第1術中支援処理の対象となる対象骨として指定する(ステップS2)。
Next, the CPU of the
続けて、中央制御部201のCPUは、患者Pの対象骨の表面が撮像された撮像画像Fを逐次取得する(ステップS3;撮像画像取得処理)。
具体的には、手術台T上の患者Pの対象骨(例えば、脛骨B1a等)の撮像部204による撮像が開始されると、信号処理部205は、対象骨の表面が撮像されたフレーム画像(撮像画像F)のデジタル値の画像データ(YUVデータ)を逐次生成してメモリ202に出力する。中央制御部201のCPUは、撮像画像取得プログラム203bに従って、信号処理部205により逐次生成された撮像画像Fの画像データをメモリ202から逐次取得する。
Subsequently, the CPU of the
Specifically, when the
その後、中央制御部201のCPUは、撮像画像F内での患者Pの対象骨の姿勢を推定する(ステップS4;推定処理)。
具体的には、中央制御部201のCPUは、推定プログラム203cに従って、撮像画像取得処理により逐次取得された撮像画像F(例えば、脛骨B1aの表面形状を表す撮像画像F等)を第1取得処理により取得された基準画像(例えば、脛骨B1aを表す基準画像等)と照合して、第1手術支援端末2に対する患者Pの対象骨(例えば、脛骨B1a等)の姿勢及び位置関係を表す行列を推定する。
After that, the CPU of the
Specifically, the CPU of the
次に、中央制御部201のCPUは、撮像画像F内の患者Pの対象骨に対する治具の向き及び位置を特定する(ステップS5;第1特定処理)。
具体的には、中央制御部201のCPUは、第1特定プログラム203dに従って、推定処理により推定された撮像画像F内での対象骨(例えば、脛骨B1a等)の姿勢と、第1取得処理により取得された治具情報を含む術前計画データDとに基づいて、撮像画像F内の対象骨の座標系と当該対象骨の三次元モデルの座標系の位置合わせを行って、撮像画像F内の対象骨の座標系での当該対象骨に対する治具の向き及び位置(例えば、脛骨髄内ロッドの向き及び刺入点の位置等)を特定する。
Next, the CPU of the
Specifically, the CPU of the
続けて、中央制御部201のCPUは、撮像画像Fに対象骨に対する治具の向き及び位置を拡張現実技術を用いて仮想的に表す第1拡張現実画像AR1を重畳させて表示パネル206aに表示させる(ステップS6;第1表示制御処理)。
具体的には、中央制御部201のCPUは、第1表示制御プログラム203eに従って、第1特定処理により特定された撮像画像F内の患者Pの対象骨(例えば、脛骨B1a等)に対する治具の向き及び位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。
Subsequently, the CPU of the
Specifically, the CPU of the
例えば、対象骨が脛骨B1aの場合、中央制御部201のCPUは、脛骨髄内ロッドの刺入前には、撮像画像F内の脛骨B1aに対する脛骨髄内ロッドの向き及び当該脛骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させ(図6(a)参照)、また、脛骨髄内ロッドの刺入後には、撮像画像F内の脛骨B1aに対する脛骨骨切り案内部材の向き及び位置を仮想的に表す第1拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。
これにより、医者は第1拡張現実画像AR1を視認して、脛骨B1aに対する脛骨髄内ロッドの向きや刺入点の位置、脛骨骨切り案内部材の向き及び位置を把握することができる。
For example, when the target bone is the tibia B1a, the CPU of the
This allows the doctor to visually recognize the first augmented reality image AR1 and grasp the orientation of the intratibial rod with respect to the tibia B1a, the position of the insertion point, and the orientation and position of the tibial osteotomy guide member.
その後、中央制御部201のCPUは、脛骨B1a及び大腿骨B1bのうち、対象骨となる骨Bが他にあるか否かを判定する(ステップS7)。
ここで、対象骨となる骨Bが他にあると判定されると(ステップS7;YES)、中央制御部201のCPUは、脛骨B1a及び大腿骨B1bのうち、前回対象骨として指定されていない他方の骨B(例えば、大腿骨B1b等)を新たな対象骨として指定した後(ステップS8)、処理をステップS3に戻す。
After that, the CPU of the
Here, if it is determined that there is another bone B to be the target bone (step S7; YES), the CPU of the
そして、中央制御部201のCPUは、ステップS3~S6の各処理を上記と略同様にして行い、ステップS6の第1表示制御処理にて、撮像画像F内の患者Pの対象骨(例えば、大腿骨B1b等)に対する治具の向き及び位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。
Then, the CPU of the
例えば、対象骨が大腿骨B1bの場合、中央制御部201のCPUは、大腿骨髄内ロッドの刺入前には、撮像画像F内の大腿骨B1bに対する大腿骨髄内ロッドの向き及び当該大腿骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させ(図6(b)参照)、また、大腿骨髄内ロッドの刺入後では、撮像画像F内の大腿骨B1bに対する大腿骨骨切り案内部材の向き及び位置を仮想的に表す第1拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。
これにより、医者は第1拡張現実画像AR1を視認して、大腿骨B1bに対する大腿骨髄内ロッドの向きや刺入点の位置、大腿骨骨切り案内部材の向き及び位置を把握することができる。
For example, when the target bone is the femur B1b, the CPU of the
Thereby, the doctor can visually recognize the first augmented reality image AR1 and grasp the direction of the rod in the femur with respect to the femur B1b, the position of the insertion point, and the direction and position of the femoral osteotomy guide member.
一方、ステップS7にて、対象骨となる骨Bが他にないと判定されると(ステップS7;NO)、中央制御部201のCPUは、当該第1術中支援処理を終了する。
On the other hand, if it is determined in step S7 that there is no other bone B to be the target bone (step S7; NO), the CPU of the
以上のように、実施形態1の手術支援システム100によれば、第1手術支援端末2は、人工膝関節置換術の術中に、患者Pのインプラント(例えば、人工膝関節等)が取り付けられる予定の骨Bの表面が撮像された撮像画像Fを逐次取得して、この撮像画像F内での骨Bの姿勢を推定し、推定された撮像画像F内での骨Bの姿勢と、骨Bの基準画像に基づく三次元モデル上での当該骨Bに対するインプラントの取付けを案内支援するための治具(例えば、髄内ロッドや骨切り案内部材等)の向きや位置を含む治具情報とに基づいて、逐次取得された撮像画像Fに治具の向きや位置を仮想的に表す第1拡張現実画像AR1を重畳させて表示部206に表示させるので、従来のように、高額なナビゲーションシステムを用いなくとも、医者が表示部206に表示されている第1拡張現実画像AR1を視認するだけで骨Bに対する治具の向きや位置を適正に把握することができ、外科手術の術中支援を高精度で、且つ、低コストで行うことができる。つまり、手術台T上での患者Pの体位の状態に応じて変化する骨Bの向きや位置(特に、回旋等)を考慮して当該骨Bに対する治具の向きや位置を医者が逐次把握することができ、結果として、より正確に人工膝関節の取付けを行うことができるようになる。
特に、第1手術支援端末2としては、例えば、スマートフォンやタブレット等の一般的な端末を適用することができ、当該手術支援システム100の導入コストをより低下させることができる。
さらに、ナビゲーションシステムでは必要なマーカが不要となり、手術時間をより短時間化することができるだけでなく、人工膝関節置換術をより低侵襲で行うことができる。
As described above, according to the
In particular, as the first
In addition, the navigation system eliminates the need for the required markers, which not only allows for shorter surgery times, but also allows total knee arthroplasty to be performed with less invasiveness.
[実施形態2]
以下に、本発明を適用した実施形態2の手術支援システム100について、図7~図10を参照して説明する。
なお、以下に説明する以外の点は、上記実施形態1と略同様であり、詳細な説明は省略する。
[Embodiment 2]
Hereinafter, the
The points other than those described below are substantially the same as those in the first embodiment, and detailed description thereof will be omitted.
図7は、実施形態2の手術支援システム100が用いられる人工膝関節置換術を説明するための斜視図である。
実施形態2の手術支援システム100は、図7に示すように、人工股関節置換術に用いられるシステムであり、実施形態1と同様に、無線通信回線を介して情報通信可能に接続された病院端末1と、第2手術支援端末2A(図8参照)とを備えている。
なお、図7には、手術台T上にて側臥位状態の患者Pを例示したが、一例であってこれに限られるものではなく、例えば、患者Pは仰臥位状態であっても良い。
FIG. 7 is a perspective view for explaining total knee arthroplasty in which the
As shown in FIG. 7, the
Note that FIG. 7 illustrates the patient P in the lateral decubitus position on the operating table T, but the present invention is not limited to this, and the patient P may be in the supine position, for example.
<病院端末>
病院端末1は、人工股関節置換術の術前計画を行うためのものである以外の点は、上記実施形態1と略同様である。
すなわち、病院端末1の記憶部103は、例えば、人工股関節置換術前に、医療用断層画像診断装置により患者Pの股関節を構成する骨盤(図示略)及び大腿骨B2が撮像された断層画像データIと、人工股関節置換術の術前計画処理用の術前計画用プログラム103aとを記憶している。
<Hospital terminal>
The
That is, for example, the
術前計画用プログラム103aは、人工股関節置換術の術前計画処理に係る機能を実現させるプログラムである。
すなわち、中央制御部101のCPUは、記憶部103から術前計画用プログラム103aを読み出して、この術前計画用プログラム103aに従って、取付け予定の人工股関節(骨盤側部材(臼蓋カップ)や大腿骨側部材(大腿骨ステム)等の人工関節構成部材)の形状や寸法、臼蓋のリーミング位置やリーミング量、大腿骨B2の骨切り位置等をシミュレーションにより特定する。
The
That is, the CPU of the
具体的には、上記実施形態1と略同様に、中央制御部101のCPUは、上記した断層画像データIから患者Pの骨盤や大腿骨B2の三次元形状を表す画像データを生成する。そして、中央制御部101のCPUは、表示部104に表示された骨盤や大腿骨B2の三次元モデル上で座標系を構築し、人工股関節を構成する骨盤側部材や大腿骨側部材(人工関節構成部材)の設置予定位置等をシミュレーションして特定する。
Specifically, substantially similar to the first embodiment, the CPU of the
また、中央制御部101のCPUは、断層画像データIに基づいて表示部104に表示された骨盤や大腿骨B2の三次元モデル上での、骨盤や大腿骨B2に対する一の骨加工(骨切りや切削)の適切な向き及び位置のうちの少なくとも一方を含む骨加工情報をシミュレーションして生成する。さらに、骨加工情報には、表示部104に表示され、仮想的に一の骨加工が施された状態の大腿骨B2の三次元モデル上での、一の骨加工後の大腿骨B2に対する大腿骨側部材の取付けのための他の骨加工の向き及び位置のうちの少なくとも一方が含まれる。この骨加工情報は、シミュレーションにより自動的に生成されても良いし、医者による操作部105の所定操作に基づいて一の骨加工や他の骨加工の向きや位置の微調整が行われても良い。
Further, the CPU of the
具体的には、一の骨加工としては、例えば、骨盤の臼蓋のリーミング、大腿骨B2の骨頭の骨切り等が挙げられ、他の骨加工としては、例えば、大腿骨B2のリーミングが挙げられる。
また、中央制御部101のCPUは、骨盤の前骨盤平面の傾き、臼蓋の寸法や向き、大腿骨B2の骨頭中心の位置、大腿骨B2の解剖軸等の各種の術中支援パラメータを生成しても良い。
Specifically, one bone processing includes, for example, reaming of the acetabulum of the pelvis, osteotomy of the head of the femur B2, and the like, and examples of other bone processing include reaming of the femur B2. Be done.
In addition, the CPU of the
<第2手術支援端末>
次に、第2手術支援端末2Aについて、図8を参照して詳細に説明する。図8は、第2手術支援端末2Aの機能的構成を示すブロック図である。
第2手術支援端末2Aは、人工股関節置換術の術中支援を行うためのものである以外の点は、上記実施形態1と略同様である。具体的には、図8に示すように、第2手術支援端末2Aの記憶部203は、第2取得プログラム203f、撮像画像取得プログラム203b、推定プログラム203c、第2特定プログラム203g、第2表示制御プログラム203h、断層画像データI、術前計画データD等を記憶している。
<Second surgery support terminal>
Next, the second
The second
第2取得プログラム203fは、基準画像及び骨加工情報を取得する第2取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第2取得プログラム203fを読み出して、この第2取得プログラム203fに従って、第2取得処理を行う。ここで、中央制御部201のCPUは、第2取得プログラム203fとの協働により、第2取得手段として機能する。
The
That is, the CPU of the
具体的には、中央制御部201のCPUは、上記実施形態1の第1取得処理と略同様に、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている断層画像データI、すなわち、人工股関節置換術前に医療用断層画像診断装置により撮像された断層画像データIを記憶部203から読み出して取得する。そして、中央制御部201のCPUは、患者Pの人工股関節が取り付けられる予定の骨盤及び大腿骨B2の三次元形状を表す基準画像の画像データを生成して取得する。この基準画像は、後述する骨加工情報に基づいて骨B(例えば、大腿骨B2)に対して仮想的に一の骨加工が施された状態の三次元形状に係る基準画像を含んでいる。
Specifically, the CPU of the
また、中央制御部201のCPUは、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている術前計画データDを記憶部203から読み出して取得する。すなわち、中央制御部201のCPUは、断層画像データIに基づく骨盤や大腿骨B2の三次元モデル上での、骨盤や大腿骨B2に対する一の骨加工の向き及び位置のうちの少なくとも一方、並びに、仮想的に一の骨加工が施された状態の大腿骨B2の三次元モデル上での、大腿骨B2に対する他の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報を含む術前計画データDを取得する。
Further, the CPU of the
撮像画像取得プログラム203bは、上記実施形態1と略同様に、撮像画像F(図10(a)等参照)を逐次取得する撮像画像取得処理に係る機能を実現させるプログラムである。
すなわち、例えば、人工股関節置換術中に、手術台T上の患者Pの骨盤や大腿骨B2が撮像部204により撮像されると、撮像部204の撮像制御部は、電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して信号処理部205に出力させる。信号処理部205は、フレーム画像のアナログ値の信号に対して各種の画像信号処理を施して、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成してメモリ202に出力する。中央制御部201のCPUは、メモリ202からフレーム画像(撮像画像F)のデジタル値の画像データ(YUVデータ)を逐次取得する。
The captured
That is, for example, when the pelvis or femur B2 of the patient P on the operating table T is imaged by the
また、患者Pの骨Bに対して一の骨加工が行われた後は、中央制御部201のCPUは、撮像画像取得処理にて、一の骨加工後の骨Bが撮像された撮像画像Fの画像データを逐次取得する。
Further, after one bone processing is performed on the bone B of the patient P, the CPU of the
推定プログラム203cは、上記実施形態1と略同様に、撮像画像F内での患者Pの骨Bの姿勢を推定する推定処理に係る機能を実現させるプログラムである。
すなわち、具体的には、中央制御部201のCPUは、撮像画像取得処理により逐次取得された撮像画像F(例えば、骨盤や大腿骨B2の表面形状を表す撮像画像F等)を第2取得処理により取得された基準画像(例えば、骨盤や大腿骨B2を表す基準画像等)と照合して、その照合結果に基づいて撮像画像F内での患者Pの骨Bの姿勢を推定する。
The
That is, specifically, the CPU of the
また、患者Pの骨Bに対して一の骨加工が行われた後は、中央制御部201のCPUは、撮像画像取得処理により逐次取得された撮像画像Fと第2取得処理により取得された基準画像とを照合して、撮像画像F内での一の骨加工後の骨Bの姿勢を推定する。ここで、一の骨加工後の骨Bの姿勢を推定する処理は、上記した一の骨加工前の骨Bの姿勢を推定する処理と略同様であり、ここでは詳細な説明は省略するが、例えば、中央制御部201のCPUは、骨加工情報に基づいて骨B(例えば、大腿骨B2)に対して仮想的に一の骨加工が施された状態の三次元形状を表す基準画像を任意の二次元平面に投影した画像を複数生成して、撮像画像Fとの照合を行うようになっている。
Further, after one bone processing was performed on the bone B of the patient P, the CPU of the
第2特定プログラム203gは、骨加工の向きや位置を特定する第2特定処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第2特定プログラム203gを読み出して、この第2特定プログラム203gに従って、第2特定処理を行う。ここで、中央制御部201のCPUは、第2特定プログラム203gとの協働により、第2特定手段として機能する。
The second
That is, the CPU of the
具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での患者Pの骨B(例えば、骨盤や大腿骨B2等)の姿勢(好ましくは、姿勢及び位置)と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の患者Pの骨Bに対する一の骨加工の向き及び位置のうちの少なくとも一方を特定する。例えば、大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内での大腿骨B2の姿勢と、骨加工情報に含まれる大腿骨B2の三次元モデル上での当該大腿骨B2に対する骨切り(一の骨加工)の向き及び位置とに基づいて、撮像画像F内の大腿骨B2の座標系と当該大腿骨B2の三次元モデルの座標系の位置合わせを行って、撮像画像F内の大腿骨B2の座標系での当該大腿骨B2の骨頭の骨切りの向き及び位置を特定する。
Specifically, the CPU of the
また、中央制御部201のCPUは、推定処理により推定された撮像画像F内での一の骨加工後の骨B(例えば、大腿骨B2等)の姿勢と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の一の骨加工後の骨Bに対する他の骨加工の向き及び位置のうちの少なくとも一方を特定する。例えば、大腿骨B2の骨頭の骨切りが一の骨加工として行われた場合、中央制御部201のCPUは、撮像画像F内での骨切り後の大腿骨B2の姿勢と、骨加工情報に含まれる仮想的に一の骨加工が施された状態の大腿骨B2の三次元モデル上での一の骨加工後の大腿骨B2に対する大腿骨側部材の取付けのためのリーミング(他の骨加工)の向き及び位置とに基づいて、撮像画像F内の骨切り後の大腿骨B2の座標系と当該大腿骨B2の三次元モデルの座標系の位置合わせを行って、撮像画像F内の骨切り後の大腿骨B2の座標系での当該大腿骨B2のリーミングの向き及び位置を特定する。
Further, the CPU of the
また、骨盤の場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、中央制御部201のCPUは、撮像画像F内での骨盤の姿勢と、骨加工情報に含まれる骨盤の三次元モデル上での当該骨盤の臼蓋のリーミング(一の骨加工)の向き及び位置とに基づいて、撮像画像F内の骨盤の座標系と当該骨盤の三次元モデルの座標系の位置合わせを行って、撮像画像F内の骨盤の座標系での当該骨盤の臼蓋のリーミングの向き及び位置を特定する。
Further, in the case of the pelvis, the processing content is substantially the same, and although detailed description thereof is omitted here, the CPU of the
第2表示制御プログラム203hは、拡張現実技術を用いて、表示部206の表示パネル206aに拡張現実画像を表示させる第2表示制御処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第2表示制御プログラム203hを読み出して、この第2表示制御プログラム203hに従って、第2表示制御処理を行う。ここで、中央制御部201のCPUは、第2表示制御プログラム203hとの協働により、第2表示制御手段として機能する。
The second display control program 203h is a program that realizes a function related to the second display control process for displaying an augmented reality image on the
That is, the CPU of the
具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での骨B(例えば、骨盤や大腿骨B2等)の姿勢(好ましくは、姿勢及び位置)と、第2取得処理により取得された骨加工情報とに基づいて、撮像画像取得処理により逐次取得された撮像画像Fに、一の骨加工の向き及び位置のうちの少なくとも一方を拡張現実技術を用いて仮想的に表す第2拡張現実画像AR2を重畳させて表示パネル206aに表示させる。より具体的には、中央制御部201のCPUは、第2特定処理により特定された撮像画像F内の骨Bに対する一の骨加工の向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内の大腿骨B2の骨頭の骨切りの向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(a)参照)。
Specifically, the CPU of the
また、中央制御部201のCPUは、推定処理により推定された撮像画像F内での一の骨加工後の骨B(例えば、大腿骨B2等)の姿勢(好ましくは、姿勢及び位置)と、第2取得処理により取得された骨加工情報とに基づいて、撮像画像取得処理により逐次取得された撮像画像Fに、他の骨加工の向き及び位置のうちの少なくとも一方を拡張現実技術を用いて仮想的に表す第3拡張現実画像AR3を重畳させて表示パネル206aに表示させる。より具体的には、中央制御部201のCPUは、第2特定処理により特定された撮像画像F内の一の骨加工後の骨Bに対する他の骨加工の向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、大腿骨B2の骨頭の骨切りが一の骨加工として行われた場合、中央制御部201のCPUは、撮像画像F内の骨切り後の大腿骨B2に対する大腿骨側部材の取付けのための当該大腿骨B2のリーミングの向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(b)参照)。
Further, the CPU of the
また、骨盤の場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、例えば、中央制御部201のCPUは、撮像画像F内の骨盤の臼蓋のリーミングの向き及び位置を仮想的に表す第2拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。
Further, in the case of the pelvis, the processing contents are substantially the same, and detailed description thereof will be omitted here. A second augmented reality image (not shown) that is virtually represented is superimposed on the captured image F and displayed on the
第2拡張現実画像AR2として、骨切り面を表す平面状のものを例示し(図10(a)参照)、第3拡張現実画像AR3として、長尺な円柱形状のものを例示したが(図10(b)参照)、一例であってこれらに限られるものではなく、形状や寸法は適宜任意に変更可能である。また、第2拡張現実画像AR2及び第3拡張現実画像AR2は、第1拡張現実画像AR1と同様に、半透過の状態か、或いは、外形のみが識別可能に表示された透過状態とするのが好ましい。 As the second augmented reality image AR2, a planar one representing the osteotomy surface is exemplified (see FIG. 10A), and as the third augmented reality image AR3, a long cylindrical one is exemplified (FIG. 10). 10 (b)), which is an example and is not limited to these, and the shape and dimensions can be arbitrarily changed as appropriate. Further, the second augmented reality image AR2 and the third augmented reality image AR2 are in a semi-transparent state or a transparent state in which only the outer shape is identifiable, as in the first augmented reality image AR1. preferable.
なお、図10(a)及び図10(b)にあっては、患者Pの大腿骨B2以外の部分の図示は省略しているが、実際には、大腿骨B2の周囲の組織も撮像部204により撮像されて表示パネル206aに表示された状態となる。
In addition, in FIGS. 10 (a) and 10 (b), the part other than the femur B2 of the patient P is not shown, but in reality, the tissue around the femur B2 is also an image pickup unit. It is in a state of being imaged by 204 and displayed on the
<第2術中支援処理>
以下に、人工股関節置換術における第2術中支援処理について、図9及び図10を参照して説明する。
図9は、第2手術支援端末2Aを用いた第2術中支援処理に係る動作の一例を示すフローチャートである。また、図10(a)及び図10(b)は、第2術中支援処理にて第2手術支援端末2Aの表示パネル206aに表示される表示画面の一例を模式的に示す図である。
<Second intraoperative support processing>
The second intraoperative support process in total hip arthroplasty will be described below with reference to FIGS. 9 and 10.
FIG. 9 is a flowchart showing an example of an operation related to the second intraoperative support process using the second
図9に示すように、先ず、中央制御部201のCPUは、患者Pの人工股関節が取り付けられる予定の骨盤及び大腿骨B2の三次元形状を表す基準画像、並びに、骨加工情報を含む術前計画データDを取得する(ステップS11;第2取得処理)。
具体的には、中央制御部201のCPUは、第2取得プログラム203fに従って、記憶部203から断層画像データIを読み出して取得し、患者Pの骨盤及び大腿骨B2の三次元形状を表す基準画像の画像データを生成して取得する。また、中央制御部201のCPUは、骨盤や大腿骨B2一の骨加工の向き及び位置、並びに、一の骨加工後の大腿骨B2に対する大腿骨側部材の取付けのための他の骨加工の向き及び位置に係る骨加工情報を含む術前計画データDを取得する。
As shown in FIG. 9, first, the CPU of the
Specifically, the CPU of the
次に、中央制御部201のCPUは、骨盤及び大腿骨B2のうち、ユーザによる操作部207の所定操作に基づいて指定された一方の骨B(例えば、大腿骨B2等)を第2術中支援処理の対象となる対象骨として指定する(ステップS12)。
Next, the CPU of the
続けて、中央制御部201のCPUは、実施形態1の第1術中支援処理のステップS3と略同様に、患者Pの対象骨の表面が撮像された撮像画像Fを逐次取得し(ステップS13;撮像画像取得処理)、実施形態1の第1術中支援処理のステップS4と略同様に、撮像画像F内での患者Pの対象骨の姿勢を推定する(ステップS14;推定処理)。
Subsequently, the CPU of the
次に、中央制御部201のCPUは、撮像画像F内の患者Pの対象骨に対する一の骨加工の向き及び位置を特定する(ステップS15;第2特定処理)。
具体的には、中央制御部201のCPUは、第2特定プログラム203gに従って、推定処理により推定された撮像画像F内での対象骨(例えば、大腿骨B2等)の姿勢と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の対象骨の座標系と当該対象骨の三次元モデルの座標系の位置合わせを行って、撮像画像F内の対象骨の座標系での当該対象骨に対する一の骨加工(例えば、大腿骨B2の骨切り等)の向き及び位置を特定する。
Next, the CPU of the
Specifically, the CPU of the
続けて、中央制御部201のCPUは、撮像画像Fに対象骨に対する一の骨加工の向き及び位置を拡張現実技術を用いて仮想的に表す第2拡張現実画像AR2を重畳させて表示パネル206aに表示させる(ステップS16;第2表示制御処理)。
具体的には、中央制御部201のCPUは、第2表示制御プログラム203hに従って、第2特定処理により特定された撮像画像F内の患者Pの対象骨(例えば、大腿骨B2等)に対する一の骨加工の向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、対象骨が大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内の大腿骨B2の骨頭の骨切りの向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(a)参照)。
これにより、医者は第2拡張現実画像AR2を視認して、大腿骨B2の骨頭の骨切りの向き及び位置を把握することができる。
Subsequently, the CPU of the
Specifically, the CPU of the
This allows the doctor to visually recognize the second augmented reality image AR2 and grasp the direction and position of the osteotomy of the head of the femur B2.
その後、中央制御部201のCPUは、例えば、術前計画データDに基づいて、患者Pの対象骨に対するインプラントの取付けのための他の骨加工が必要であるか否かを判定する(ステップS17)。
ここで、他の骨加工が必要であると判定されると(ステップS17;YES)、中央制御部201のCPUは、ステップS13と略同様に、一の骨加工後の対象骨の表面が撮像された撮像画像Fを逐次取得する(ステップS18;撮像画像取得処理)。続けて、中央制御部201のCPUは、ステップS14と略同様に、撮像画像F内での一の骨加工後の対象骨の姿勢を推定する(ステップS19;推定処理)。
After that, the CPU of the
Here, when it is determined that other bone processing is necessary (step S17; YES), the CPU of the
その後、中央制御部201のCPUは、撮像画像F内の一の骨加工後の対象骨に対する他の骨加工の向き及び位置を特定する(ステップS20;第2特定処理)。
具体的には、中央制御部201のCPUは、第2特定プログラム203gに従って、推定処理により推定された撮像画像F内での一の骨加工後の対象骨(例えば、大腿骨B2等)の姿勢と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の一の骨加工後の対象骨の座標系と当該対象骨の三次元モデルの座標系の位置合わせを行って、撮像画像F内の一の骨加工後の対象骨の座標系での当該対象骨に対する他の骨加工(例えば、大腿骨B2のリーミング等)の向き及び位置を特定する。
After that, the CPU of the
Specifically, the CPU of the
続けて、中央制御部201のCPUは、撮像画像Fに一の骨加工後の対象骨に対する他の骨加工の向き及び位置を拡張現実技術を用いて仮想的に表す第3拡張現実画像AR3を重畳させて表示パネル206aに表示させる(ステップS21;第2表示制御処理)。
具体的には、中央制御部201のCPUは、第2表示制御プログラム203hに従って、第2特定処理により特定された撮像画像F内の一の骨加工後の対象骨(例えば、大腿骨B2等)に対する他の骨加工の向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、対象骨が大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内の骨切り後の大腿骨B2のリーミングの向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(b)参照)。
これにより、医者は第3拡張現実画像AR3を視認して、大腿骨B2のリーミングの向き及び位置を把握することができる。
Subsequently, the CPU of the
Specifically, the CPU of the
This allows the doctor to visually recognize the third augmented reality image AR3 and grasp the direction and position of the reaming of the femur B2.
その後、中央制御部201のCPUは、骨盤及び大腿骨B2のうち、対象骨となる骨Bが他にあるか否かを判定する(ステップS22)。また、ステップS17にて、他の骨加工が必要でないと判定された場合(ステップS17;NO)にも、中央制御部201のCPUは、処理をステップS22に移行し、対象骨となる骨Bが他にあるか否かを判定する。
After that, the CPU of the
ステップS22にて、対象骨となる骨Bが他にあると判定されると(ステップS22;YES)、中央制御部201のCPUは、骨盤及び大腿骨B2のうち、前回対象骨として指定されていない他方の骨B(例えば、骨盤等)を新たな対象骨として指定した後(ステップS23)、処理をステップS13に戻す。
When it is determined in step S22 that there is another bone B to be the target bone (step S22; YES), the CPU of the
そして、中央制御部201のCPUは、ステップS13~S16の各処理を上記と略同様にして行い、ステップS16の第2表示制御処理にて、撮像画像F内の患者Pの対象骨(例えば、骨盤等)に対する一の骨加工の向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、対象骨が骨盤の場合、中央制御部201のCPUは、撮像画像F内の骨盤の臼蓋のリーミングの向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。
これにより、医者は第2拡張現実画像AR2を視認して、骨盤の臼蓋のリーミングの向き及び位置を把握することができる。
Then, the CPU of the
This allows the doctor to visually recognize the second augmented reality image AR2 and grasp the direction and position of the reaming of the pelvic acetabulum.
その後、ステップS17にて、中央制御部201のCPUは、患者Pの対象骨に対するインプラントの取付けのための他の骨加工が必要であるか否かを判定する。例えば、対象骨が骨盤の場合、臼蓋のリーミング以外の他の骨加工が不要であることから、中央制御部201のCPUは、他の骨加工が必要でないと判定して(ステップS17;NO)、処理をステップS22に移行する。
Then, in step S17, the CPU of the
一方、ステップS22にて、対象骨となる骨Bが他にないと判定されると(ステップS22;NO)、中央制御部201のCPUは、当該第2術中支援処理を終了する。
On the other hand, if it is determined in step S22 that there is no other bone B to be the target bone (step S22; NO), the CPU of the
以上のように、実施形態2の手術支援システム100によれば、第2手術支援端末2Aは、人工股関節置換術の術中に、患者Pの骨加工される予定の骨Bの表面が撮像された撮像画像Fを逐次取得して、この撮像画像F内での骨Bの姿勢を推定し、推定された撮像画像F内での骨Bの姿勢と、骨Bの基準画像に基づく三次元モデル上での当該骨Bに対する一の骨加工の向きや位置を含む骨加工情報とに基づいて、逐次取得された撮像画像Fに一の骨加工の向きや位置を仮想的に表す第2拡張現実画像AR2を重畳させて表示部206に表示させるので、従来のように、高額なナビゲーションシステムを用いなくとも、医者が表示部206に表示されている第2拡張現実画像AR2を視認するだけで骨Bに対する一の骨加工の向きや位置を適正に把握することができ、外科手術の術中支援を高精度で、且つ、低コストで行うことができる。つまり、手術台T上での患者Pの体位の状態に応じて変化する骨Bの向きや位置(特に、回旋等)を考慮して当該骨Bに対する一の骨加工の向きや位置を医者が逐次把握することができ、結果として、より正確に一の骨加工を行うことができるようになる。
As described above, according to the
さらに、一の骨加工後には、当該一の骨加工後の骨Bが撮像された撮像画像Fを逐次取得し、逐次取得された撮像画像Fと骨Bに対して仮想的に一の骨加工が施された状態の三次元形状に係る基準画像とを照合して、この撮像画像F内での一の骨加工後の骨Bの姿勢を推定し、推定された撮像画像F内での一の骨加工後の骨Bの姿勢と、骨Bの基準画像に基づく三次元モデル上での当該一の骨加工後の骨Bに対するインプラントの取付けのための他の骨加工の向きや位置を含む骨加工情報とに基づいて、逐次取得された撮像画像Fに他の骨加工の向きや位置を仮想的に表す第3拡張現実画像AR3を重畳させて表示部206に表示させるので、骨Bに対して一の骨加工が施された状態でも、医者が表示部206に表示されている第3拡張現実画像AR3を視認するだけで一の骨加工後の骨Bに対する他の骨加工の向きや位置を適正に把握することができる。
Further, after one bone processing, the captured image F in which the bone B after the one bone processing is imaged is sequentially acquired, and one bone processing is performed virtually with respect to the sequentially acquired captured image F and the bone B. By collating with the reference image related to the three-dimensional shape in the state where the above is applied, the posture of the bone B after one bone processing in the captured image F is estimated, and one in the estimated captured image F. Includes the posture of bone B after bone processing and the orientation and position of other bone processing for attachment of the implant to the bone B after one bone processing on a three-dimensional model based on the reference image of bone B. Based on the bone processing information, the third augmented reality image AR3 that virtually represents the direction and position of other bone processing is superimposed on the image F that is sequentially acquired and displayed on the
なお、本発明は、上記実施形態1、2に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、インプラントとして、人工膝関節や人工股関節を例示したが、一例であってこれに限られるものではなく、例えば、脊椎ケージや人工椎体など適宜任意に変更可能である。また、例えば、人工膝関節置換術においては、実施形態1のように、髄内ロッドや骨切り案内部材(治具)を用いずに、実施形態2のように、脛骨B1aや大腿骨B1bに対する骨加工の向きや位置を拡張現実技術を用いて仮想的に表すようにしても良い。このとき、骨Bに対する骨加工が複数回行われる場合には、実施形態2のように、一の骨加工後の骨Bの姿勢を推定し、他の骨加工の向きや位置を拡張現実技術を用いて仮想的に表すようにしても良い。
The present invention is not limited to the first and second embodiments, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, an artificial knee joint and an artificial hip joint have been exemplified as implants, but the present invention is not limited to this, and for example, a spinal cage or an artificial vertebral body can be arbitrarily changed. Further, for example, in total knee arthroplasty, the tibia B1a and the femur B1b are treated as in the second embodiment without using the intramedullary rod and the osteotomy guide member (jig) as in the first embodiment. The direction and position of bone processing may be virtually represented using augmented reality technology. At this time, when the bone processing on the bone B is performed a plurality of times, the posture of the bone B after one bone processing is estimated and the direction and position of the other bone processing are augmented reality technology as in the second embodiment. May be used to virtually represent it.
また、上記実施形態1にあっては、第1拡張現実画像AR1として、脛骨髄内ロッドや大腿骨髄内ロッド等の治具の向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該治具の向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。さらに、第1拡張現実画像AR1は、治具の向きや位置を直接的に表すものに変えて、或いは、加えて、治具の向きや位置を間接的に表し、当該治具の向きや位置の調整の基準となる位置(例えば、脛骨B1aの場合、後十字靭帯付着部、脛骨結節内縁等)を表すものであっても良い。 Further, in the first embodiment, as the first augmented reality image AR1, an example is shown in which both the orientation and the position of the jig such as the tibial bone marrow intramedullary rod and the femoral intramedullary rod are virtually represented. However, the present invention is not limited to this, and for example, any one of the orientation and the position of the jig may be virtually represented. Further, the first augmented reality image AR1 is changed to one that directly represents the orientation and position of the jig, or in addition, indirectly represents the orientation and position of the jig, and the orientation and position of the jig. It may represent a position that serves as a reference for adjustment (for example, in the case of tibia B1a, the posterior cruciate ligament attachment portion, the inner edge of the tibial nodule, etc.).
また、上記実施形態2にあっては、第2拡張現実画像AR2として、一の骨加工の向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該一の骨加工の向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。同様に、第3拡張現実画像AR3として、インプラントの取付けのための他の骨加工の向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該他の骨加工の向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。さらに、第2拡張現実画像AR2や第3拡張現実画像AR3は、一の骨加工や他の骨加工の向きや位置を直接的に表すものに変えて、或いは、加えて、一の骨加工や他の骨加工の向きや位置を間接的に表し、当該一の骨加工や他の骨加工の向きや位置の調整の基準となる位置(例えば、大腿骨B2の場合、骨軸等)を表すものであっても良い。
また、第1~第3拡張現実画像AR1~AR3を表示する際に、撮像画像Fと基準画像との照合状態を表すために骨Bの三次元モデルも併せて表示パネル206aに表示するようにしても良い。
Further, in the second embodiment, as the second augmented reality image AR2, an example that virtually represents both the direction and the position of one bone processing is exemplified, but it is an example and is not limited to this. However, for example, one of the directions and positions of the one bone processing may be virtually represented. Similarly, the third augmented reality image AR3 exemplifies, but is not limited to, an example that virtually represents both the orientation and position of other bone processes for implant attachment. For example, one of the directions and positions of the other bone processing may be virtually represented. Further, the second augmented reality image AR2 and the third augmented reality image AR3 are changed to those that directly represent the direction and position of one bone processing or another bone processing, or in addition, one bone processing or It indirectly represents the direction and position of other bone processing, and represents the position that is the reference for adjusting the direction and position of the one bone processing and other bone processing (for example, in the case of femur B2, the bone axis, etc.). It may be a thing.
Further, when displaying the first to third augmented reality images AR1 to AR3, the three-dimensional model of the bone B is also displayed on the
さらに、上記実施形態1、2にあっては、例えば、予め人種、年齢及び性別などの人の身体的特徴の各々に対応する標準的な骨Bの三次元形状を表す画像データを複数用意しておき、患者Pの骨Bの断層画像データIがない場合には、当該患者Pの身体的特徴に合致する画像データを基準画像として利用しても良い。 Further, in the above-described first and second embodiments, for example, a plurality of image data representing the standard three-dimensional shape of the bone B corresponding to each of the physical characteristics of a person such as race, age and gender are prepared in advance. However, if there is no tomographic image data I of the bone B of the patient P, image data matching the physical characteristics of the patient P may be used as a reference image.
また、上記実施形態1、2にあっては、手術支援システム100として、病院端末1と第1手術支援端末2や第2手術支援端末2Aとが無線通信回線を介して接続された構成を例示したが、一例であってこれに限られるものではなく、例えば、有線ケーブル(図示略)を用いて情報通信可能に接続されていても良い。また、無線通信回線として、無線LANを例示したが、一例であってこれに限られるものではなく、例えば、Bluetooth(登録商標)を用いても良い。
Further, in the first and second embodiments, as the
さらに、第1手術支援端末2及び第2手術支援端末2Aの構成は、一例であってこれらに限られるものではない。例えば、術前計画処理を病院端末1にて行うようにしたが、一例であってこれに限られるものではなく、例えば、第1手術支援端末2及び第2手術支援端末2Aが行っても良く、この場合には、断層画像データI及び術前計画データDのうち、少なくとも断層画像データIを取得すれば良い。また、第1手術支援端末2及び第2手術支援端末2Aは、断層画像データIや術前計画データDをメモリカード等の記憶媒体を介して病院端末1から取得しても良い。さらに、第1手術支援端末2及び第2手術支援端末2Aとしては、例えば、ウェアラブルコンピューターデバイス、特に、頭部装着型コンピューターデバイス(ヘッドマウンティドディスプレイ)を用いても良い。
Further, the configurations of the first
また、上記実施形態1の第1手術支援端末2にあっては、第1取得手段、撮像画像取得手段、推定手段及び第1表示制御手段等としての機能が、中央制御部201のCPUにより所定のプログラム等が実行されることにより実現されるようにしたが、所定のロジック回路により実現されても良い。
同様に、上記実施形態2の第2手術支援端末2Aにあっては、第2取得手段、撮像画像取得手段、推定手段及び第2表示制御手段等としての機能が、中央制御部201のCPUにより所定のプログラム等が実行されることにより実現されるようにしたが、所定のロジック回路により実現されても良い。
Further, in the first
Similarly, in the second
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD-ROM等の可搬型記憶媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Further, as a computer-readable medium containing a program for executing each of the above processes, a non-volatile memory such as a flash memory and a portable storage medium such as a CD-ROM shall be applied in addition to a ROM and a hard disk. Is also possible. A carrier wave is also applied as a medium for providing program data via a predetermined communication line.
加えて、今回開示された実施形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。 In addition, the embodiments disclosed this time should be considered to be exemplary and not restrictive in all respects. The scope of the present invention is shown by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
100 手術支援システム
1 病院端末
2 第1手術支援端末
2A 第2手術支援端末
201 中央制御部(第1取得手段、撮像画像取得手段、推定手段、第1表示制御手段、第1特定手段、第2取得手段、第2表示制御手段、第2特定手段)
203 記憶部
204 撮像部
206 表示部
206a 表示パネル
AR1~AR3 第1~第3拡張現実画像
B 骨
B1a 脛骨
B1b、B2 大腿骨
F 撮像画像
100
203
Claims (10)
前記大腿骨又は前記脛骨のうち患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する前記インプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段と、
前記撮像部が撮像した患者の前記骨の表面の撮像画像を逐次取得する撮像画像取得手段と、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段と、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて前記表示部に表示させる第1表示制御手段と、
を備えることを特徴とする手術支援端末。 It is a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, and is used when attaching an implant to the femur or tibia.
To guide and support the attachment of the implant to the bone on the reference image relating to the three-dimensional shape of the femur or the tibia to which the patient's implant is to be attached and the three-dimensional model based on the reference image. The first acquisition means for acquiring the jig information including at least one of the orientation and the position of the jig of
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the first acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the jig information acquired by the first acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A first display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig and displaying it on the display unit.
A surgical support terminal characterized by being equipped with.
前記第1表示制御手段は、前記第1特定手段により特定された前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す前記第1拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項1に記載の手術支援端末。 The orientation of the jig with respect to the bone in the captured image based on the posture of the bone in the captured image estimated by the estimation means and the jig information acquired by the first acquisition means. And further provided with a first identifying means of identifying at least one of the locations,
The first display control means superimposes the first augmented reality image that virtually represents at least one of the orientations and positions of the jig specified by the first specific means on the captured image, and displays the display. The surgical support terminal according to claim 1, wherein the surgical support terminal is displayed on a unit.
前記治具は、前記一の骨にその関節面側から刺入される髄内ロッドを含み、
前記第1表示制御手段は、前記第1特定手段により特定された前記髄内ロッドの向き及び当該髄内ロッドの刺入点の位置のうちの少なくとも一方を仮想的に表す前記第1拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項2に記載の手術支援端末。 The implant comprises an artificial joint component corresponding to one of the femur and tibia constituting the knee joint.
The jig comprises an intramedullary rod that is inserted into the one bone from its articular surface side.
The first display control means virtually represents at least one of the orientation of the intramedullary rod and the position of the insertion point of the intramedullary rod specified by the first specific means. The surgical support terminal according to claim 2, wherein the image is superimposed on the captured image and displayed on the display unit.
前記治具は、前記一の骨に取り付けられ、当該一の骨の骨切りを案内する骨切り案内部材を含み、
前記第1表示制御手段は、前記第1特定手段により特定された前記骨切り案内部材の向き及び位置のうちの少なくとも一方を仮想的に表す前記第1拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項2に記載の手術支援端末。 The implant comprises an artificial joint component that corresponds to one of the femurs and tibias constituting the knee joint and is attached after osteotomy of the one bone.
The jig is attached to the one bone and includes an osteotomy guide member for guiding the osteotomy of the one bone.
The first display control means superimposes the first augmented reality image that virtually represents at least one of the directions and positions of the osteotomy guide member specified by the first specific means on the captured image. The surgical support terminal according to claim 2, wherein the display is displayed on the display unit.
前記大腿骨又は前記脛骨のうち患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段と、
前記撮像部が撮像した患者の前記骨の表面の撮像画像を逐次取得する撮像画像取得手段と、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段と、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて前記表示部に表示させる第2表示制御手段と、
を備えることを特徴とする手術支援端末。 It is a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, and is used when performing bone processing on the femur or tibia.
A reference image relating to the three-dimensional shape of the femur or the tibia to be processed in the patient's bone, and the direction and position of one bone processing with respect to the bone on the three-dimensional model based on the reference image. A second acquisition means for acquiring bone processing information including at least one of them,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the second acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A second display control means for superimposing a second augmented reality image that virtually represents at least one of the directions and positions of the one bone processing and displaying it on the display unit.
A surgical support terminal characterized by being equipped with.
前記第2表示制御手段は、前記第2特定手段により特定された前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す前記第2拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項5に記載の手術支援端末。 The one bone processing on the bone in the captured image based on the posture of the bone in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means. Further provided with a second specifying means for specifying at least one of the orientation and position of the
The second display control means superimposes the second augmented reality image, which virtually represents at least one of the directions and positions of the one bone processing specified by the second specific means, on the captured image. The surgical support terminal according to claim 5, wherein the display is displayed on the display unit.
前記撮像画像取得手段は、前記一の骨加工後の骨が撮像された撮像画像を逐次取得し、
前記推定手段は、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記一の骨加工後の骨の姿勢を推定することを特徴とする請求項5又は6に記載の手術支援端末。 The reference image includes a reference image relating to a three-dimensional shape in a state in which the one bone processing is virtually applied to the bone based on the bone processing information acquired by the second acquisition means.
The captured image acquisition means sequentially acquires an captured image in which the bone after the one bone processing is captured.
The estimation means collates the captured images sequentially acquired by the captured image acquisition means with the reference image acquired by the second acquisition means, and the bone after the one bone processing in the captured image is collated. The surgical support terminal according to claim 5 or 6, wherein the posture is estimated.
前記第2表示制御手段は、更に、前記推定手段により推定された前記撮像画像内での前記一の骨加工後の骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記他の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第3拡張現実画像を重畳させて前記表示部に表示させることを特徴とする請求項7に記載の手術支援端末。 The bone processing information includes at least one of the orientations and positions of the other bone processing for attachment of the implant to the bone after the one bone processing on the three-dimensional model based on the reference image.
The second display control means further includes the posture of the bone after the one bone processing in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means. Based on this, a third augmented reality image that virtually represents at least one of the directions and positions of the other bone processing is superimposed on the captured images sequentially acquired by the captured image acquisition means and displayed on the display unit. The surgical support terminal according to claim 7, wherein the surgical support terminal is characterized in that.
前記大腿骨又は前記脛骨のうち患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する前記インプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段、
前記撮像部が撮像した患者の前記骨の表面の撮像画像を逐次取得する撮像画像取得手段、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて前記表示部に表示させる第1表示制御手段、
として機能させることを特徴とするプログラム。 A computer for a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, which is used when attaching an implant to the femur or tibia .
To guide and support the attachment of the implant to the bone on the reference image relating to the three-dimensional shape of the femur or the tibia to which the patient's implant is to be attached and the three-dimensional model based on the reference image. First acquisition means for acquiring jig information including at least one of the orientation and position of the jig,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the first acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the jig information acquired by the first acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A first display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig and displaying it on the display unit.
A program characterized by functioning as.
前記大腿骨及び前記脛骨のうち患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段、
前記撮像部が撮像した患者の前記骨の表面の撮像画像を逐次取得する撮像画像取得手段、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて前記表示部に表示させる第2表示制御手段、
として機能させることを特徴とするプログラム。 A computer of a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, which is used when processing the bones of the femur or tibia .
A reference image relating to the three-dimensional shape of the femur and the tibia to be processed in the patient's bone, and the direction and position of one bone processing with respect to the bone on the three-dimensional model based on the reference image. A second acquisition means for acquiring bone processing information including at least one of them,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the second acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A second display control means for superimposing a second augmented reality image that virtually represents at least one of the directions and positions of the one bone processing and displaying it on the display unit.
A program characterized by functioning as.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016197589 | 2016-09-16 | ||
JP2016197589 | 2016-09-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018047240A JP2018047240A (en) | 2018-03-29 |
JP7012302B2 true JP7012302B2 (en) | 2022-01-28 |
Family
ID=61767079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017178979A Active JP7012302B2 (en) | 2016-09-16 | 2017-09-19 | Surgery support terminals and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7012302B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7125049B2 (en) * | 2018-06-01 | 2022-08-24 | インテリジェンスファクトリー合同会社 | Surgery support marker and surgery support system |
CA3127605C (en) * | 2019-01-23 | 2022-08-02 | Proprio, Inc. | Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site |
WO2020217591A1 (en) * | 2019-04-25 | 2020-10-29 | 株式会社Nttドコモ | Image processing system showing jig arrangement |
JP2021019967A (en) * | 2019-07-30 | 2021-02-18 | 春仁 上園 | Augmented reality information display method, surgical operation support device, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014036700A (en) | 2012-08-10 | 2014-02-27 | Arthro Design Kk | Navigation device for joint replacement operation, and operation assistance apparatus |
WO2014200017A1 (en) | 2013-06-11 | 2014-12-18 | Tanji Atsushi | Bone cutting assistance system, information processing device, image processing method, and image processing program |
-
2017
- 2017-09-19 JP JP2017178979A patent/JP7012302B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014036700A (en) | 2012-08-10 | 2014-02-27 | Arthro Design Kk | Navigation device for joint replacement operation, and operation assistance apparatus |
WO2014200017A1 (en) | 2013-06-11 | 2014-12-18 | Tanji Atsushi | Bone cutting assistance system, information processing device, image processing method, and image processing program |
Also Published As
Publication number | Publication date |
---|---|
JP2018047240A (en) | 2018-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111031954B (en) | Sensory enhancement system and method for use in medical procedures | |
CN109069208B (en) | Ultra-wideband positioning for wireless ultrasound tracking and communication | |
US11275249B2 (en) | Augmented visualization during surgery | |
US10398514B2 (en) | Systems and methods for sensory augmentation in medical procedures | |
JP2022133440A (en) | Systems and methods for augmented reality display in navigated surgeries | |
US8706197B2 (en) | Planning method and planning device for knee implants | |
JP7012302B2 (en) | Surgery support terminals and programs | |
JP2020075109A (en) | System and method for in-surgery image analysis | |
EP3273854A1 (en) | Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera | |
US20170215966A1 (en) | Surgical assistance apparatus, program, storage medium, and surgical assistance method | |
US20200205900A1 (en) | Dynamic 3d motion capture for surgical implant orientation | |
JP2015516228A (en) | Portable tracking system, method using portable tracking system | |
JP6823665B2 (en) | Surgical support system | |
US20230013210A1 (en) | Robotic revision knee arthroplasty virtual reconstruction system | |
US20230068971A1 (en) | Fluoroscopic robotic prosthetic implant system and methods | |
Pflugi et al. | A cost-effective navigation system for peri-acetabular osteotomy surgery | |
WO2021174295A1 (en) | Surgical impactor navigation systems and methods | |
WO2023064433A1 (en) | Methods for surgical registration and tracking using hybrid imaging devices and systems thereof | |
JP2021019967A (en) | Augmented reality information display method, surgical operation support device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170919 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200826 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200826 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210625 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7012302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |