JP7012302B2 - Surgery support terminals and programs - Google Patents

Surgery support terminals and programs Download PDF

Info

Publication number
JP7012302B2
JP7012302B2 JP2017178979A JP2017178979A JP7012302B2 JP 7012302 B2 JP7012302 B2 JP 7012302B2 JP 2017178979 A JP2017178979 A JP 2017178979A JP 2017178979 A JP2017178979 A JP 2017178979A JP 7012302 B2 JP7012302 B2 JP 7012302B2
Authority
JP
Japan
Prior art keywords
bone
image
captured image
femur
acquisition means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017178979A
Other languages
Japanese (ja)
Other versions
JP2018047240A (en
Inventor
麻帆 稲垣
健仁 道家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medica Scientia
Original Assignee
Medica Scientia
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medica Scientia filed Critical Medica Scientia
Publication of JP2018047240A publication Critical patent/JP2018047240A/en
Application granted granted Critical
Publication of JP7012302B2 publication Critical patent/JP7012302B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Prostheses (AREA)

Description

本発明は、外科手術、特に、患者の体内に整形外科用のインプラントを取付ける整形外科手術を支援する手術支援端末及びプログラムに関する。 The present invention relates to surgical support terminals and programs that support surgical operations, particularly orthopedic surgery in which implants for orthopedic surgery are attached to the body of a patient.

従来、膝関節や股関節などを金属やセラミックス製の人工関節に置き換える置換手術が知られている。また、脊椎の固定、矯正及び安定化等のために脊椎ケージや人工椎体などを取付け固定する外科手術も知られている。
これらのインプラントを体内の所定位置に取付ける場合、患者に最適の形状及び寸法のものを最適の角度及び位置で設置することが重要である。
Conventionally, replacement surgery is known in which a knee joint or a hip joint is replaced with an artificial joint made of metal or ceramics. In addition, surgical operations for attaching and fixing a spinal cage, an artificial vertebral body, or the like for fixing, correcting, and stabilizing the spine are also known.
When mounting these implants in place within the body, it is important to place the implants in the optimal shape and dimensions for the patient at the optimal angle and position.

そこで、近年では、患者のインプラントの取付部位の医療用断層画像を用いて、取付け予定のインプラントの形状や寸法や取付角度、必要に応じて骨切り量や骨切り位置等をシミュレーションする術前計画が行われるようになっている(例えば、特許文献1参照)。
また、術中に、患者の骨などに固定されたマーカの位置を光学的に追跡し、当該マーカの絶対座標を利用して骨切り量や骨切り位置等を指示するナビゲーションシステムも開発されている。
Therefore, in recent years, a preoperative plan that simulates the shape, dimensions, and mounting angle of the implant to be mounted, and if necessary, the amount of osteotomy and the position of osteotomy, etc., using a medical tomographic image of the implant mounting site of the patient. (See, for example, Patent Document 1).
In addition, a navigation system has been developed that optically tracks the position of a marker fixed to the patient's bone during surgery and uses the absolute coordinates of the marker to indicate the amount of osteotomy and the position of osteotomy. ..

特開2009-82444号公報Japanese Unexamined Patent Publication No. 2009-82444

しかしながら、ナビゲーションシステムでは、マーカの着脱作業が必要となるために手術時間がより長時間化してしまい、さらに、患者の骨の手術する部位とは異なる部位にマーカのピンを刺入するために侵襲部位が増大してしまうといった問題がある。 However, in the navigation system, the operation time becomes longer because the marker must be attached and detached, and the marker pin is inserted into a site different from the surgical site of the patient's bone, which is invading. There is a problem that the part increases.

さらに、ナビゲーションシステムは、高額で装置自体も大きく、普及率が高くないといった問題もある。なお、例えば、三次元空間の一つの軸方向(例えば、Z軸方向等)の精度を犠牲することで比較的安いコストで導入可能な簡易型のナビゲーションシステムも開発されているが、このシステムでは、術中に高精度での手術支援を実現することは困難である。例えば、膝関節を人工膝関節に置換する手術の場合、脛骨の回旋方向を適正に特定することができないために、骨切りやインプラントの取付けを案内する治具の取付け精度が低下し、結果として、インプラントの取付け精度が低下してしまう。 Further, the navigation system has a problem that it is expensive, the device itself is large, and the penetration rate is not high. For example, a simple navigation system that can be introduced at a relatively low cost by sacrificing the accuracy of one axial direction (for example, the Z-axis direction) of a three-dimensional space has also been developed. , It is difficult to realize highly accurate surgical support during surgery. For example, in the case of surgery to replace the knee joint with an artificial knee joint, the rotation direction of the tibia cannot be properly specified, and as a result, the mounting accuracy of the jig that guides the osteotomy and implant mounting is reduced, and as a result. , Implant mounting accuracy is reduced.

加えて、上記のシステムでは、術前に撮像された患者のインプラントの取付部位の医療用断層画像を用いて計画されたデータを基に、術中に手術支援を行うようになっているため、例えば、骨切りが行われる手術では、術中に骨切り後の骨の状態を反映させて手術支援を行うことができないといった問題もある。 In addition, the above system provides intraoperative surgical support based on data planned using preoperatively imaged medical tomographic images of the patient's implant attachment site, for example. In the surgery in which the osteotomy is performed, there is also a problem that the surgical support cannot be performed by reflecting the condition of the bone after the osteotomy during the operation.

本発明は、このような問題に鑑みてなされたものであり、外科手術の術中支援を高精度で、且つ、低コストで行うことを課題とする。 The present invention has been made in view of such a problem, and an object of the present invention is to provide intraoperative support for surgery with high accuracy and at low cost.

上記課題を解決するため、本発明の一態様の手術支援端末は、
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨にインプラントを取り付ける際に用いられる手術支援端末であって、
前記大腿骨又は前記脛骨のうち患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する前記インプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段と、
前記撮像部が撮像した患者の前記骨の表面撮像画像を逐次取得する撮像画像取得手段と、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段と、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて前記表示部に表示させる第1表示制御手段と、
を備えることを特徴としている。
In order to solve the above problems, the surgical support terminal according to one aspect of the present invention is
It is a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, and is used when attaching an implant to the femur or tibia.
To guide and support the attachment of the implant to the bone on the reference image relating to the three-dimensional shape of the femur or the tibia to which the patient's implant is to be attached and the three-dimensional model based on the reference image. The first acquisition means for acquiring the jig information including at least one of the orientation and the position of the jig of
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the first acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the jig information acquired by the first acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A first display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig and displaying it on the display unit.
It is characterized by having.

また、本発明の一態様の手術支援端末は、
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨の骨加工を行う際に用いられる手術支援端末であって、
前記大腿骨又は前記脛骨のうち患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段と、
前記撮像部が撮像した患者の前記骨の表面撮像画像を逐次取得する撮像画像取得手段と、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段と、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて前記表示部に表示させる第2表示制御手段と、
を備えることを特徴としている。
Further, the surgical support terminal according to one aspect of the present invention is
It is a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, and is used when performing bone processing on the femur or tibia.
A reference image relating to the three-dimensional shape of the femur or the tibia to be processed in the patient's bone, and the direction and position of one bone processing with respect to the bone on the three-dimensional model based on the reference image. A second acquisition means for acquiring bone processing information including at least one of them,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the second acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A second display control means for superimposing a second augmented reality image that virtually represents at least one of the directions and positions of the one bone processing and displaying it on the display unit.
It is characterized by having.

本発明の一態様のプログラムは、
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨にインプラントを取り付ける際に用いられる手術支援端末のコンピュータを、
前記大腿骨又は前記脛骨のうち患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する前記インプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段、
前記撮像部が撮像した患者の前記骨の表面撮像画像を逐次取得する撮像画像取得手段、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて前記表示部に表示させる第1表示制御手段、
として機能させることを特徴としている。
The program of one aspect of the present invention is
A computer for a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, which is used when attaching an implant to the femur or tibia .
To guide and support the attachment of the implant to the bone on the reference image relating to the three-dimensional shape of the femur or the tibia to which the patient's implant is to be attached and the three-dimensional model based on the reference image. First acquisition means for acquiring jig information including at least one of the orientation and position of the jig,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the first acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the jig information acquired by the first acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A first display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig and displaying it on the display unit.
It is characterized by functioning as.

本発明の一態様のプログラムは、
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨の骨加工を行う際に用いられる手術支援端末のコンピュータを、
前記大腿骨及び前記脛骨のうち患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段、
前記撮像部が撮像した患者の前記骨の表面撮像画像を逐次取得する撮像画像取得手段、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて前記表示部に表示させる第2表示制御手段、
として機能させることを特徴としている。
The program of one aspect of the present invention is
A computer of a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, which is used when processing the bones of the femur or tibia .
A reference image relating to the three-dimensional shape of the femur and the tibia to be processed in the patient's bone, and the direction and position of one bone processing with respect to the bone on the three-dimensional model based on the reference image. A second acquisition means for acquiring bone processing information including at least one of them,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the second acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A second display control means for superimposing a second augmented reality image that virtually represents at least one of the directions and positions of the one bone processing and displaying it on the display unit.
It is characterized by functioning as.

本発明によれば、外科手術の術中支援を高精度で、且つ、低コストで行うことができる。 According to the present invention, intraoperative support for surgery can be performed with high accuracy and at low cost.

本発明を適用した実施形態1の手術支援システムの概略構成を模式的に示す図である。It is a figure which shows schematic structure of the operation support system of Embodiment 1 to which this invention was applied. 図1の手術支援システムが用いられる人工膝関節置換術を説明するための斜視図である。It is a perspective view for demonstrating the total knee arthroplasty in which the surgical support system of FIG. 1 is used. 図1の手術支援システムを構成する病院端末の機能的構成を示すブロック図である。FIG. 3 is a block diagram showing a functional configuration of a hospital terminal constituting the surgery support system of FIG. 1. 図1の手術支援システムを構成する第1手術支援端末の機能的構成を示すブロック図である。It is a block diagram which shows the functional configuration of the 1st operation support terminal which constitutes the operation support system of FIG. 図4の第1手術支援端末による第1術中支援処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation which concerns on the 1st operation support processing by the 1st operation support terminal of FIG. 図5の第1術中支援処理における第1手術支援端末の表示画面の一例を模式的に示す図である。It is a figure which shows an example of the display screen of the 1st operation support terminal in the 1st operation support processing of FIG. 5 schematically. 本発明を適用した実施形態2の手術支援システムが用いられる人工股関節置換術を説明するための斜視図である。It is a perspective view for demonstrating the total hip arthroplasty in which the surgical support system of Embodiment 2 to which this invention is applied is used. 図7の手術支援システムを構成する第2手術支援端末の機能的構成を示すブロック図である。It is a block diagram which shows the functional configuration of the 2nd surgery support terminal which constitutes the surgery support system of FIG. 7. 図8の第2手術支援端末による第2術中支援処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation which concerns on the 2nd operation support processing by the 2nd operation support terminal of FIG. 図9の第2術中支援処理における第2手術支援端末の表示画面の一例を模式的に示す図である。It is a figure which shows an example of the display screen of the 2nd operation support terminal in the 2nd operation support process of FIG. 9 schematically.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, a specific embodiment of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
以下に、本発明を適用した実施形態1の手術支援システム100について、図1~図6を参照して説明する。
図1は、実施形態1の手術支援システム100の概略構成を模式的に示す図である。また、図2は、手術支援システム100が用いられる人工膝関節置換術を説明するための斜視図である。
なお、図2及び後述する図7には、手術台T上での患者Pが固定されていない状態を表しているが、医者が外科手術を施術し易くなるように固定されていても良い。
[Embodiment 1]
Hereinafter, the surgical support system 100 of the first embodiment to which the present invention is applied will be described with reference to FIGS. 1 to 6.
FIG. 1 is a diagram schematically showing a schematic configuration of the surgery support system 100 of the first embodiment. Further, FIG. 2 is a perspective view for explaining total knee arthroplasty in which the surgical support system 100 is used.
Although FIG. 2 and FIG. 7 described later show a state in which the patient P on the operating table T is not fixed, it may be fixed so that the doctor can easily perform the surgical operation.

実施形態1の手術支援システム100は、人工膝関節置換術(図2参照)に用いられるシステムであり、具体的には、図1に示すように、病院内に設置された病院端末1と、外科手術の術中支援を行う第1手術支援端末2とを備えている。また、病院端末1と第1手術支援端末2とは、無線通信回線(例えば、無線LAN(Local Area Network)等)を介して情報通信可能に接続されている。 The surgery support system 100 of the first embodiment is a system used for total knee arthroplasty (see FIG. 2), and specifically, as shown in FIG. 1, a hospital terminal 1 installed in a hospital and a hospital terminal 1 It is equipped with a first surgery support terminal 2 that provides intraoperative support for surgery. Further, the hospital terminal 1 and the first surgery support terminal 2 are connected to each other via a wireless communication line (for example, a wireless LAN (Local Area Network) or the like) so that information can be communicated.

<病院端末>
先ず、病院端末1について、図3を参照して詳細に説明する。図3は、病院端末1の機能的構成を示すブロック図である。
病院端末1は、例えば、PC(Personal Computer)等から構成され、人工膝関節置換術の術前計画を行うためのものである。具体的には、図3に示すように、病院端末1は、中央制御部101と、メモリ102と、記憶部103と、表示部104と、操作部105と、通信制御部106とを備えている。また、病院端末1の各部は、バス107を介して接続されている。
<Hospital terminal>
First, the hospital terminal 1 will be described in detail with reference to FIG. FIG. 3 is a block diagram showing a functional configuration of the hospital terminal 1.
The hospital terminal 1 is composed of, for example, a PC (Personal Computer) or the like, and is for performing a preoperative plan for total knee arthroplasty. Specifically, as shown in FIG. 3, the hospital terminal 1 includes a central control unit 101, a memory 102, a storage unit 103, a display unit 104, an operation unit 105, and a communication control unit 106. There is. Further, each part of the hospital terminal 1 is connected via a bus 107.

中央制御部101は、当該病院端末1の各部を制御するものである。すなわち、中央制御部101は、図示は省略するが、CPU(Central Processing Unit)を備え、CPUは、記憶部103に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出し、メモリ102のワークエリアに展開し、当該プログラムに従って各種処理を実行する。その際に、中央制御部101のCPUは、メモリ102内に各種処理結果を格納させ、必要に応じてその処理結果を表示部104に表示させる。 The central control unit 101 controls each unit of the hospital terminal 1. That is, although not shown, the central control unit 101 includes a CPU (Central Processing Unit), and the CPU reads out a designated program among the system programs and application programs stored in the storage unit 103, and stores the memory. Expand to 102 work areas and execute various processes according to the program. At that time, the CPU of the central control unit 101 stores various processing results in the memory 102, and displays the processing results on the display unit 104 as needed.

メモリ102は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部101のCPUにより読み出された各種のプログラムやデータを一時的に格納するワークエリアを有している。 The memory 102 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and has a work area for temporarily storing various programs and data read by the CPU of the central control unit 101.

記憶部103は、例えば、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、HDD(Hard Disk Drive)等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。
具体的には、記憶部103は、断層画像データI、術前計画用プログラム103a等を記憶している。
The storage unit 103 is composed of, for example, a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), an HDD (Hard Disk Drive), or the like, and is a storage unit capable of writing and reading data and programs.
Specifically, the storage unit 103 stores the tomographic image data I, the preoperative planning program 103a, and the like.

断層画像データIは、例えば、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging system)装置などの医療用断層画像診断装置(図示略)により患者Pの人工関節により置換される患部が撮像された画像データである。すなわち、断層画像データIは、例えば、人工膝関節置換術前に、医療用断層画像診断装置により患者Pの膝関節を構成する脛骨B1a及び大腿骨B1bが撮像された画像データである。
なお、断層画像データIは、医療用断層画像診断装置から院内LAN等のネットワークを介して病院端末1に送信されたものであっても良いし、メモリカード等の記憶媒体を介して病院端末1により取得されたものであっても良い。
The tomographic image data I is captured by a medical tomographic image diagnostic device (not shown) such as an X-ray CT (Computed Tomography) device or an MRI (Magnetic Resonance Imaging system) device to capture the affected area to be replaced by the artificial joint of the patient P. It is the image data that has been made. That is, the tomographic image data I is, for example, image data in which the tibia B1a and the femur B1b constituting the knee joint of the patient P are imaged by a medical tomographic image diagnostic apparatus before the total knee arthroplasty.
The tomographic image data I may be transmitted from the medical tomographic image diagnostic device to the hospital terminal 1 via a network such as an in-hospital LAN, or may be transmitted to the hospital terminal 1 via a storage medium such as a memory card. It may be the one obtained by.

術前計画用プログラム103aは、人工関節置換術の術前計画処理に係る機能を実現させるプログラムである。
すなわち、中央制御部101のCPUは、記憶部103から術前計画用プログラム103aを読み出して、この術前計画用プログラム103aに従って、取付け予定の人工膝関節(脛骨側部材や大腿骨側部材等の人工関節構成部材)の形状や寸法、脛骨B1aに刺入される脛骨髄内ロッドの向き及び刺入点の位置、脛骨B1aの骨切り位置、大腿骨B1bに刺入される大腿骨髄内ロッドの向き及び刺入点の位置、大腿骨B1bの骨切り位置等をシミュレーションにより特定する。
The preoperative planning program 103a is a program that realizes a function related to preoperative planning processing of artificial joint replacement.
That is, the CPU of the central control unit 101 reads the preoperative planning program 103a from the storage unit 103, and according to the preoperative planning program 103a, the artificial knee joint to be attached (tibial side member, femoral bone side member, etc.) The shape and dimensions of the artificial joint component), the orientation of the tibial intramedullary rod inserted into the tibia B1a and the position of the insertion point, the osteotomy position of the tibia B1a, and the femoral intramedullary rod inserted into the femoral bone B1b. The orientation, the position of the insertion point, the osteotomy position of the tibia B1b, etc. are specified by simulation.

なお、術前計画処理は、公知の技術であり、ここでは詳細な説明は省略するが、例えば、中央制御部101のCPUは、上記した断層画像データIから患者Pの脛骨B1aや大腿骨B1bの三次元形状を表す画像データを生成する。そして、中央制御部101のCPUは、表示部104に表示された脛骨B1aや大腿骨B1bの三次元モデル上で座標系を構築し、人工膝関節を構成する脛骨側部材や大腿骨側部材(人工関節構成部材)の設置予定位置等をシミュレーションして特定する。 The preoperative planning process is a known technique, and although detailed description thereof will be omitted here, for example, the CPU of the central control unit 101 may use the above-mentioned tomographic image data I to determine the tibia B1a and femur B1b of the patient P. Generates image data representing the three-dimensional shape of. Then, the CPU of the central control unit 101 constructs a coordinate system on the three-dimensional model of the tibia B1a and the femur B1b displayed on the display unit 104, and the tibia side member and the femur side member constituting the artificial knee joint ( Specify by simulating the planned installation position of the artificial joint component).

また、中央制御部101のCPUは、断層画像データIに基づいて表示部104に表示された脛骨B1a及び大腿骨B1bの三次元モデル上での、脛骨B1aや大腿骨B1bに対する脛骨側部材や大腿骨側部材の取付けを案内支援するための治具の適切な向き及び位置のうちの少なくとも一方を含む治具情報をシミュレーションして生成する。この治具情報は、シミュレーションにより自動的に生成されても良いし、医者による操作部105の所定操作に基づいて治具の向きや位置の微調整が行われても良い。 Further, the CPU of the central control unit 101 uses the tibial side member and the femur with respect to the tibia B1a and the femur B1b on the three-dimensional model of the tibia B1a and the femur B1b displayed on the display unit 104 based on the tomographic image data I. The jig information including at least one of the appropriate orientations and positions of the jig for guiding and supporting the attachment of the bone-side member is simulated and generated. This jig information may be automatically generated by simulation, or the orientation and position of the jig may be finely adjusted based on a predetermined operation of the operation unit 105 by a doctor.

具体的には、治具情報には、例えば、脛骨B1aに対する脛骨側部材の取付けを案内支援するために脛骨B1aに刺入される脛骨髄内ロッドの向き及び刺入点の位置、脛骨髄内ロッドを基準として脛骨B1aの骨切りを案内する脛骨骨切り案内部材の向き及び設置位置、大腿骨B1bに対する大腿骨側部材の取付けを案内支援するために大腿骨B1bに刺入される大腿骨髄内ロッドの向き及び刺入点の位置、大腿骨髄内ロッドを基準として大腿骨B1bの骨切りを案内する大腿骨骨切り案内部材の向き及び設置位置等が含まれる。 Specifically, the jig information includes, for example, the direction of the intrashineral rod inserted into the tibia B1a to guide and support the attachment of the tibial side member to the tibia B1a, the position of the insertion point, and the inside of the tibia. The orientation and installation position of the tibial osteotomy guide member that guides the osteotomy of the tibial bone B1a with reference to the rod, and the inside of the femoral bone that is inserted into the femoral bone B1b to guide and support the attachment of the femoral bone side member to the femoral bone B1b. The orientation of the rod, the position of the insertion point, the orientation of the femoral osteotomy guide member for guiding the osteotomy of the femoral bone B1b with reference to the rod in the femoral bone, and the installation position are included.

また、中央制御部101のCPUは、下肢の機能軸、大腿骨B1bの骨頭中心の位置、大腿骨B1bの機能軸、大腿骨B1bの前方皮質近似平面、脛骨B1aの機能軸、内/外反角、屈曲・伸展角、回旋角等の各種の術中支援パラメータを生成しても良い。 Further, the CPU of the central control unit 101 uses the functional axis of the lower limbs, the position of the center of the head of the femur B1b, the functional axis of the femur B1b, the approximate plane of the anterior cortex of the femur B1b, the functional axis of the tibia B1a, and the varus / valgus. Various intraoperative support parameters such as angle, flexion / extension angle, and rotation angle may be generated.

表示部104は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等から構成されている。また、表示部104には、中央制御部101のCPUから出力されて入力される表示信号の指示に従って、各種画面を表示する。 The display unit 104 is composed of, for example, an LCD (Liquid Crystal Display), an organic EL (Electro-Luminescence) display, or the like. Further, the display unit 104 displays various screens according to the instructions of the display signal output and input from the CPU of the central control unit 101.

操作部105は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等を備えている。そして、操作部105は、これらキーボードやマウスの操作に応じて所定の操作信号を中央制御部101に出力する。 The operation unit 105 has, for example, a keyboard, a mouse, or the like composed of data input keys for inputting numerical values, characters, etc., up / down / left / right movement keys for performing data selection, feed operation, etc., and various function keys. I have. Then, the operation unit 105 outputs a predetermined operation signal to the central control unit 101 in response to the operation of the keyboard and the mouse.

通信制御部106は、第1手術支援端末2との間で情報通信を行う。
すなわち、通信制御部106は、例えば、無線LANモジュール等を有し、外部のアクセスポイント(固定基地局)を経由せずに直接第1手術支援端末2の通信制御部208との間で無線通信回線を構築するPeer to Peer(アドホックモード)で動作する。例えば、通信制御部106は、無線通信回線の通信方式、暗号化情報、チャンネル、IPアドレス等の各種情報を無線通信可能範囲内に存する第1手術支援端末2の通信制御部208に送信して、この第1手術支援端末2の通信制御部208との間で無線LAN等の無線通信回線を構築して信号の送受信を行う。
具体的には、通信制御部106は、患者Pの断層画像データIや、術前計画処理により生成された術前計画データD(図4参照)を第1手術支援端末2の通信制御部208に送信する。
The communication control unit 106 performs information communication with the first surgery support terminal 2.
That is, the communication control unit 106 has, for example, a wireless LAN module or the like, and wirelessly communicates directly with the communication control unit 208 of the first surgery support terminal 2 without going through an external access point (fixed base station). Operates in Peer to Peer (ad hoc mode) to build a line. For example, the communication control unit 106 transmits various information such as the communication method, encryption information, channel, and IP address of the wireless communication line to the communication control unit 208 of the first surgery support terminal 2 that is within the wireless communication range. A wireless communication line such as a wireless LAN is constructed with the communication control unit 208 of the first surgery support terminal 2 to transmit and receive signals.
Specifically, the communication control unit 106 uses the tomographic image data I of the patient P and the preoperative planning data D (see FIG. 4) generated by the preoperative planning processing as the communication control unit 208 of the first surgery support terminal 2. Send to.

なお、通信制御部106は、例えば、無線通信可能範囲内に存するアクセスポイントとの間で無線通信回線を構築して、当該無線通信回線を介して第1手術支援端末2の通信制御部208との間で信号の送受信を行うインフラストラクチャモードで動作しても良い。 The communication control unit 106, for example, constructs a wireless communication line with an access point existing within the wireless communication range, and communicates with the communication control unit 208 of the first surgery support terminal 2 via the wireless communication line. It may operate in infrastructure mode in which signals are sent and received between.

<第1手術支援端末>
次に、第1手術支援端末2について、図4を参照して詳細に説明する。図4は、第1手術支援端末2の機能的構成を示すブロック図である。
第1手術支援端末2は、例えば、スマートフォン、タブレット等から構成され、人工膝関節置換術の術中支援を行うためのものである。具体的には、図4に示すように、第1手術支援端末2は、中央制御部201と、メモリ202と、記憶部203と、撮像部204と、信号処理部205と、表示部206と、操作部207と、通信制御部208とを備えている。また、第1手術支援端末2の各部は、バス209を介して接続されている。
<First surgery support terminal>
Next, the first surgery support terminal 2 will be described in detail with reference to FIG. FIG. 4 is a block diagram showing a functional configuration of the first surgery support terminal 2.
The first surgery support terminal 2 is composed of, for example, a smartphone, a tablet, or the like, and is for providing intraoperative support for total knee arthroplasty. Specifically, as shown in FIG. 4, the first surgery support terminal 2 includes a central control unit 201, a memory 202, a storage unit 203, an imaging unit 204, a signal processing unit 205, and a display unit 206. The operation unit 207 and the communication control unit 208 are provided. Further, each part of the first surgery support terminal 2 is connected via a bus 209.

中央制御部201は、当該第1手術支援端末2の各部を制御するものである。すなわち、中央制御部201は、図示は省略するが、CPUを備え、CPUは、記憶部203に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出し、メモリ202のワークエリアに展開し、当該プログラムに従って各種処理を実行する。その際に、中央制御部201のCPUは、メモリ202内に各種処理結果を格納させ、必要に応じてその処理結果を表示部206に表示させる。 The central control unit 201 controls each unit of the first surgery support terminal 2. That is, although not shown, the central control unit 201 includes a CPU, and the CPU reads out a designated program among the system programs and application programs stored in the storage unit 203 and puts it in the work area of the memory 202. Expand and execute various processes according to the program. At that time, the CPU of the central control unit 201 stores various processing results in the memory 202, and displays the processing results on the display unit 206 as needed.

メモリ202は、例えば、DRAM等により構成され、中央制御部201のCPUにより読み出された各種のプログラムやデータを一時的に格納するワークエリアを有している。 The memory 202 is composed of, for example, a DRAM or the like, and has a work area for temporarily storing various programs and data read by the CPU of the central control unit 201.

記憶部203は、例えば、フラッシュメモリ、EEPROM等により構成され、データ及びプログラムを書き込み及び読み出し可能な記憶部である。
具体的には、記憶部203は、第1取得プログラム203a、撮像画像取得プログラム203b、推定プログラム203c、第1特定プログラム203d、第1表示制御プログラム203e、断層画像データI、術前計画データD等を記憶している。
The storage unit 203 is composed of, for example, a flash memory, EEPROM, or the like, and is a storage unit capable of writing and reading data and programs.
Specifically, the storage unit 203 includes the first acquisition program 203a, the captured image acquisition program 203b, the estimation program 203c, the first specific program 203d, the first display control program 203e, the tomographic image data I, the preoperative planning data D, and the like. I remember.

第1取得プログラム203aは、基準画像及び治具情報を取得する第1取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第1取得プログラム203aを読み出して、この第1取得プログラム203aに従って、第1取得処理を行う。ここで、中央制御部201のCPUは、第1取得プログラム203aとの協働により、第1取得手段として機能する。
The first acquisition program 203a is a program that realizes the function related to the first acquisition process for acquiring the reference image and the jig information.
That is, the CPU of the central control unit 201 reads the first acquisition program 203a from the storage unit 203, and performs the first acquisition process according to the first acquisition program 203a. Here, the CPU of the central control unit 201 functions as the first acquisition means in cooperation with the first acquisition program 203a.

具体的には、中央制御部201のCPUは、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている断層画像データI、すなわち、人工膝関節置換術前に医療用断層画像診断装置により撮像された断層画像データIを記憶部203から読み出して取得する。そして、中央制御部201のCPUは、患者Pの人工膝関節が取り付けられる予定の脛骨B1a及び大腿骨B1bの三次元形状を表す基準画像の画像データを生成して取得する。 Specifically, the CPU of the central control unit 201 is transmitted from the hospital terminal 1, received by the communication control unit 208, and stored in the storage unit 203, that is, the tomographic image data I, that is, before the total knee arthroplasty. The tomographic image data I imaged by the medical tomographic image diagnostic apparatus is read out from the storage unit 203 and acquired. Then, the CPU of the central control unit 201 generates and acquires image data of a reference image showing the three-dimensional shapes of the tibia B1a and the femur B1b to which the artificial knee joint of the patient P is to be attached.

また、中央制御部201のCPUは、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている術前計画データDを記憶部203から読み出して取得する。すなわち、中央制御部201のCPUは、断層画像データIに基づく脛骨B1aや大腿骨B1bの三次元モデル上での、脛骨B1aや大腿骨B1bに対する脛骨側部材や大腿骨側部材の取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報を含む術前計画データDを取得する。 Further, the CPU of the central control unit 201 reads the preoperative planning data D stored in the storage unit 203 from the storage unit 203, which is transmitted from the hospital terminal 1 and received by the communication control unit 208. That is, the CPU of the central control unit 201 guides and supports the attachment of the tibia-side member and the femur-side member to the tibia B1a and the femur B1b on the three-dimensional model of the tibia B1a and the femur B1b based on the tomographic image data I. Preoperative planning data D including the jig information including at least one of the orientation and the position of the jig for the tibia is acquired.

撮像画像取得プログラム203bは、撮像画像F(図6(a)等参照)を逐次取得する撮像画像取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から撮像画像取得プログラム203bを読み出して、この撮像画像取得プログラム203bに従って、撮像画像取得処理を行う。ここで、中央制御部201のCPUは、撮像画像取得プログラム203bとの協働により、撮像画像取得手段として機能する。
The captured image acquisition program 203b is a program that realizes a function related to the captured image acquisition process for sequentially acquiring captured images F (see FIG. 6A and the like).
That is, the CPU of the central control unit 201 reads the captured image acquisition program 203b from the storage unit 203, and performs the captured image acquisition process according to the captured image acquisition program 203b. Here, the CPU of the central control unit 201 functions as a captured image acquisition means in cooperation with the captured image acquisition program 203b.

具体的には、中央制御部201のCPUは、手術台T上の患者Pの骨Bの表面が撮像された撮像画像Fを取得する。例えば、人工膝関節置換術中に、手術台T上の患者Pの脛骨B1aや大腿骨B1bが内側部側から膝関節の関節面が写るように撮像部204により撮像されると、撮像部204の撮像制御部は、電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して信号処理部205に出力させる。このとき、脛骨B1aや大腿骨B1bが画角内の所定位置(例えば、略中央等)に存し、且つ、所定の大きさで写るように撮像部204により撮像されるのが好ましい。そして、信号処理部205は、フレーム画像のアナログ値の信号に対して各種の画像信号処理を施して、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成してメモリ202に出力する。中央制御部201のCPUは、メモリ202からフレーム画像(撮像画像F)のデジタル値の画像データ(YUVデータ)を逐次取得する。 Specifically, the CPU of the central control unit 201 acquires an image F in which the surface of the bone B of the patient P on the operating table T is imaged. For example, during total knee arthroplasty, when the tibia B1a and femur B1b of patient P on the operating table T are imaged by the imaging unit 204 so that the joint surface of the knee joint can be seen from the medial side, the imaging unit 204 The image pickup control unit reads out a frame image for each screen from the image pickup area of the electronic image pickup unit and outputs the frame image to the signal processing unit 205. At this time, it is preferable that the tibia B1a and the femur B1b are present at a predetermined position (for example, substantially the center) within the angle of view and are imaged by the imaging unit 204 so as to be captured in a predetermined size. Then, the signal processing unit 205 performs various image signal processing on the analog value signal of the frame image to generate a digital value luminance signal Y and a color difference signal Cb, Cr (YUV data) in the memory 202. Output. The CPU of the central control unit 201 sequentially acquires image data (YUV data) of digital values of the frame image (captured image F) from the memory 202.

なお、撮像画像Fは、後述するように、脛骨B1aや大腿骨B1b等の骨Bの少なくとも基準画像との照合に用いられる特徴点に対応する一部分(例えば、脛骨近位前方内側部や大腿骨遠位前方内側部等)が撮像されていれば良い。 As will be described later, the captured image F is a part corresponding to a feature point used for collation with at least a reference image of bone B such as tibia B1a and femur B1b (for example, proximal anterior medial part of tibia and femur). It suffices if the distal anterior medial part, etc.) is imaged.

推定プログラム203cは、撮像画像F内での患者Pの骨Bの姿勢を推定する推定処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から推定プログラム203cを読み出して、この推定プログラム203cに従って、推定処理を行う。ここで、中央制御部201のCPUは、推定プログラム203cとの協働により、推定手段として機能する。
The estimation program 203c is a program that realizes a function related to an estimation process for estimating the posture of the bone B of the patient P in the captured image F.
That is, the CPU of the central control unit 201 reads the estimation program 203c from the storage unit 203, and performs estimation processing according to the estimation program 203c. Here, the CPU of the central control unit 201 functions as an estimation means in cooperation with the estimation program 203c.

具体的には、中央制御部201のCPUは、撮像画像取得処理により逐次取得された撮像画像F(例えば、脛骨B1aや大腿骨B1bの表面形状を表す撮像画像F等)を第1取得処理により取得された基準画像(例えば、脛骨B1aや大腿骨B1bを表す基準画像等)と照合して、その照合結果に基づいて撮像画像F内での患者Pの骨Bの姿勢を推定する。 Specifically, the CPU of the central control unit 201 obtains the captured images F sequentially acquired by the captured image acquisition process (for example, the captured image F representing the surface shape of the tibia B1a and the femur B1b) by the first acquisition process. It is collated with the acquired reference image (for example, a reference image representing the tibia B1a or the femur B1b), and the posture of the bone B of the patient P in the captured image F is estimated based on the collation result.

ここで、撮像画像Fと基準画像とを照合する手法は、公知の技術であるので、詳細な説明を省略するが、例えば、中央制御部201のCPUは、骨Bの三次元形状を表す基準画像を任意の二次元平面に投影した画像(3D/2D変換画像)を複数生成し、撮像画像F内から抽出した特徴点の特徴量(例えば、SIFT(Scale-Invariant Features Transform)特徴量やSURF(Speeded Up Robust Features)特徴量等)の類似度が最も高くなる画像を探索する。このとき、必要に応じて3D/2D変換画像や撮像画像Fの拡大縮小を行っても良い。 Here, since the method of collating the captured image F with the reference image is a known technique, detailed description thereof will be omitted. For example, the CPU of the central control unit 201 is a reference representing the three-dimensional shape of the bone B. Multiple images (3D / 2D converted images) obtained by projecting an image onto an arbitrary two-dimensional plane are generated, and feature quantities of feature points extracted from the captured image F (for example, SIFT (Scale-Invariant Features Transform) feature quantities and SURF). (Speeded Up Robust Features) Search for images with the highest degree of similarity (features, etc.). At this time, the 3D / 2D converted image or the captured image F may be enlarged or reduced as needed.

また、中央制御部201のCPUは、類似度が最も高くなった画像に対応する骨Bの三次元モデル上での当該骨Bを構成する各点の座標位置、撮像画像F内での患者Pの骨Bを構成する各点の座標位置等に基づいて、所定の座標変換式を解いて、当該第1手術支援端末2に対する患者Pの骨Bの姿勢及び位置関係を表す行列を推定する。このとき、画像からの幾何学的なモデルのパラメータの推定精度を向上させるためのバンドル調整を行っても良い。 Further, the CPU of the central control unit 201 is the coordinate position of each point constituting the bone B on the three-dimensional model of the bone B corresponding to the image having the highest similarity, and the patient P in the captured image F. Based on the coordinate positions and the like of each point constituting the bone B, a predetermined coordinate conversion formula is solved to estimate a matrix representing the posture and positional relationship of the bone B of the patient P with respect to the first surgery support terminal 2. At this time, bundle adjustment may be performed to improve the estimation accuracy of the parameters of the geometric model from the image.

なお、撮像画像Fとして、患者Pの骨Bが画角内の所定位置(例えば、略中央等)に存し、且つ、所定の大きさで写るように撮像部204により撮像された撮像画像Fを用いる場合、必ずしも撮像画像F内での骨Bの位置を推定する必要はないと考えられるが、当該推定結果を利用する各種処理(第1特定処理や第1表示制御処理等;後述)をより適正に行う上では、撮像画像F内での骨Bの姿勢及び位置の推定を行うのが好ましい。 As the captured image F, the captured image F captured by the imaging unit 204 so that the bone B of the patient P exists at a predetermined position (for example, substantially the center) within the angle of view and is captured in a predetermined size. It is considered that it is not always necessary to estimate the position of the bone B in the captured image F, but various processes (first specific process, first display control process, etc .; described later) using the estimated result are performed. In order to perform more appropriately, it is preferable to estimate the posture and position of the bone B in the captured image F.

また、撮像画像Fと基準画像との照合において、例えば、撮像対象となる骨Bの形状や状態、撮像する際の第1手術支援端末2の向きや位置、撮像環境の明るさや光の方向等によっては、特徴点や特徴量の抽出を適正に行うことができない虞がある。そこで、予め骨Bの特徴的な形状部分(例えば、脛骨近位前方内側部や大腿骨遠位前方内側部等)を基準画像内で指定して登録(レジストレーション)しておき、撮像部204による骨Bの撮像の際に、当該特徴的な形状部分を所定の指示棒(図示略)などを用いて指示することで、特徴点や特徴量の抽出をより適正に行うことができるようにしても良い。 Further, in collation between the captured image F and the reference image, for example, the shape and state of the bone B to be imaged, the orientation and position of the first surgery support terminal 2 at the time of imaging, the brightness of the imaging environment, the direction of light, and the like. Depending on the situation, it may not be possible to properly extract feature points and feature quantities. Therefore, the characteristic shape portion of the bone B (for example, the proximal anterior medial part of the tibia, the distal anteromedial part of the femur, etc.) is designated and registered in the reference image in advance, and the imaging unit 204 is registered. By instructing the characteristic shape portion using a predetermined pointer (not shown) or the like at the time of imaging the bone B by the above, it is possible to more appropriately extract the feature points and feature amounts. May be.

また、特徴点の特徴量を用いた撮像画像Fと基準画像との照合に換えて、或いは、併用して、例えば、レーザーメスなどを用いて予め骨Bの所定位置(例えば、骨切りにより切除される位置等)に位置合わせ用のマーカを付けておき、当該マーカを撮像してその姿勢を推定し、推定結果から患者Pの骨Bの姿勢を推定するようにしても良い。 In addition, instead of collating the captured image F using the feature amount of the feature point with the reference image, or in combination with each other, the bone B is previously excised at a predetermined position (for example, by osteotomy) using a laser scalpel or the like. A marker for alignment may be attached to the position to be performed, etc.), the marker may be imaged to estimate the posture, and the posture of the bone B of the patient P may be estimated from the estimation result.

第1特定プログラム203dは、治具(図示略)の向きや位置を特定する第1特定処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第1特定プログラム203dを読み出して、この第1特定プログラム203dに従って、第1特定処理を行う。ここで、中央制御部201のCPUは、第1特定プログラム203dとの協働により、第1特定手段として機能する。
The first specific program 203d is a program that realizes a function related to the first specific process for specifying the direction and position of a jig (not shown).
That is, the CPU of the central control unit 201 reads the first specific program 203d from the storage unit 203, and performs the first specific process according to the first specific program 203d. Here, the CPU of the central control unit 201 functions as the first specific means in cooperation with the first specific program 203d.

具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での患者Pの骨B(例えば、脛骨B1aや大腿骨B1b等)の姿勢(好ましくは、姿勢及び位置)と、第1取得処理により取得された治具情報を含む術前計画データDとに基づいて、撮像画像F内の患者Pの骨Bに対する治具の向き及び位置のうちの少なくとも一方を特定する。 Specifically, the CPU of the central control unit 201 is the posture (preferably posture and position) of the bone B (for example, tibia B1a, femur B1b, etc.) of the patient P in the captured image F estimated by the estimation process. ) And the preoperative planning data D including the jig information acquired by the first acquisition process, and at least one of the orientation and the position of the jig with respect to the bone B of the patient P in the captured image F is specified. do.

例えば、脛骨B1aの場合、中央制御部201のCPUは、撮像画像F内での脛骨B1aの姿勢と、治具情報に含まれる脛骨B1aの三次元モデル上での脛骨B1aに刺入される脛骨髄内ロッドの向き及び刺入点の位置とに基づいて、撮像画像F内の脛骨B1aの座標系と当該脛骨B1aの三次元モデルの座標系の位置合わせを行って、撮像画像F内の脛骨B1aの座標系での当該脛骨B1aに対する脛骨髄内ロッドの向き及び刺入点の位置を特定する。また、例えば、脛骨B1aに対して脛骨髄内ロッドが刺入された場合、中央制御部201のCPUは、撮像画像F内での脛骨B1aの姿勢と、治具情報に含まれる脛骨B1aの三次元モデル上での脛骨骨切り案内部材の向き及び設置位置とに基づいて、撮像画像F内の脛骨B1aの座標系と当該脛骨B1aの三次元モデルの座標系の位置合わせを行って、撮像画像F内の脛骨B1aに対する脛骨骨切り案内部材の向き及び設置位置を特定する。 For example, in the case of the tibia B1a, the CPU of the central control unit 201 determines the posture of the tibia B1a in the captured image F and the tibia inserted into the tibia B1a on the three-dimensional model of the tibia B1a included in the jig information. Based on the orientation of the intramedullary rod and the position of the insertion point, the coordinate system of the tibia B1a in the image F is aligned with the coordinate system of the three-dimensional model of the tibia B1a, and the tibia in the image F is aligned. The orientation of the intratibial rod and the position of the insertion point with respect to the tibia B1a in the coordinate system of B1a are specified. Further, for example, when the intratibial rod is inserted into the tibia B1a, the CPU of the central control unit 201 determines the posture of the tibia B1a in the captured image F and the tertiary of the tibia B1a included in the jig information. Based on the orientation and installation position of the tibial osteotomy guide member on the original model, the coordinate system of the tibia B1a in the captured image F and the coordinate system of the three-dimensional model of the tibia B1a are aligned to perform the captured image. The orientation and installation position of the tibial osteotomy guide member with respect to the tibia B1a in F are specified.

また、大腿骨B1bの場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、大腿骨髄内ロッドの向き及び刺入点の位置、大腿骨骨切り案内部材の向き及び設置位置の特定に、例えば、撮像画像F内の大腿骨B1bの座標系での当該大腿骨B1bの骨頭中心の位置が必要となる場合がある。
この場合、例えば、第1手術支援端末2を患者Pの大腿骨B1bの遠位端側の所定位置に所定の固定機構を介して固定(例えば、骨切りにより切除される位置に螺合したり、切除されない位置をクランプしたりして固定;図示略)し、この状態で、当該大腿骨B1bの遠位端側を回動させた際の角速度や角加速度等を第1手術支援端末2の角速度センサ(図示略)を用いて測定することで、当該大腿骨B1bの骨頭中心の位置の絶対座標を算出する。そして、算出された大腿骨B1bの骨頭中心の位置の絶対座標から撮像画像F内の大腿骨B1bの座標系での当該大腿骨B1の骨頭中心の位置を特定するようにしても良い。
Further, in the case of the femur B1b, the processing content is substantially the same, and although detailed description thereof is omitted here, the orientation of the femoral intramedullary rod and the position of the insertion point, the orientation of the femoral osteotomy guide member, and the installation position For example, the position of the center of the head of the femur B1b in the coordinate system of the femur B1b in the captured image F may be required.
In this case, for example, the first surgical support terminal 2 is fixed at a predetermined position on the distal end side of the femur B1b of the patient P via a predetermined fixing mechanism (for example, screwed into a position to be excised by osteotomy). , The position that is not excised is clamped and fixed; (not shown), and in this state, the angular velocity, angular acceleration, etc. when the distal end side of the femur B1b is rotated are determined by the first surgery support terminal 2. By measuring using an angular velocity sensor (not shown), the absolute coordinates of the position of the center of the head of the femur B1b are calculated. Then, the position of the center of the femur B1 in the coordinate system of the femur B1b in the captured image F may be specified from the absolute coordinates of the position of the center of the femur B1b calculated.

なお、この手法による撮像画像F内の大腿骨B1bの座標系での当該大腿骨B1bの骨頭中心の位置の特定は、上記した推定処理における撮像画像Fと基準画像との照合の際に行っても良く、これにより、撮像画像F内での大腿骨B1bの姿勢の推定をより適正に行うことができる。 The position of the center of the head of the femur B1b in the coordinate system of the femur B1b in the captured image F by this method is specified when the captured image F and the reference image are collated in the above estimation process. This also makes it possible to more accurately estimate the posture of the femur B1b in the captured image F.

第1表示制御プログラム203eは、拡張現実(augmented reality:AR)技術を用いて、表示部206の表示パネル206aに拡張現実画像を表示させる第1表示制御処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第1表示制御プログラム203eを読み出して、この第1表示制御プログラム203eに従って、第1表示制御処理を行う。ここで、中央制御部201のCPUは、第1表示制御プログラム203eとの協働により、第1表示制御手段として機能する。
具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での骨B(例えば、脛骨B1aや大腿骨B1b等)の姿勢(好ましくは、姿勢及び位置)と、第1取得処理により取得された治具情報とに基づいて、撮像画像取得処理により逐次取得された撮像画像Fに、治具の向き及び位置のうちの少なくとも一方を拡張現実技術を用いて仮想的に表す第1拡張現実画像AR1を重畳させて表示パネル206aに表示させる(図6(a)及び図6(b)参照)。より具体的には、中央制御部201のCPUは、第1特定処理により特定された撮像画像F内の患者Pの骨Bに対する治具の向き及び位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。
The first display control program 203e is a program that realizes a function related to the first display control process for displaying an augmented reality image on the display panel 206a of the display unit 206 by using augmented reality (AR) technology.
That is, the CPU of the central control unit 201 reads the first display control program 203e from the storage unit 203, and performs the first display control process according to the first display control program 203e. Here, the CPU of the central control unit 201 functions as the first display control means in cooperation with the first display control program 203e.
Specifically, the CPU of the central control unit 201 determines the posture (preferably the posture and position) of the bone B (for example, tibial bone B1a, femoral bone B1b, etc.) in the captured image F estimated by the estimation process. Based on the jig information acquired by the first acquisition process, at least one of the orientation and position of the jig is virtually set to the captured image F sequentially acquired by the captured image acquisition process using augmented reality technology. The first augmented reality image AR1 represented by the above is superimposed and displayed on the display panel 206a (see FIGS. 6 (a) and 6 (b)). More specifically, the CPU of the central control unit 201 virtually represents the orientation and position of the jig with respect to the bone B of the patient P in the captured image F specified by the first specific process, the first augmented reality image AR1. Is superimposed on the captured image F and displayed on the display panel 206a.

例えば、脛骨B1aの場合、中央制御部201のCPUは、撮像画像F内の脛骨B1aに対する脛骨髄内ロッドの向き及び当該脛骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる(図6(a)参照)。また、例えば、脛骨B1aに対して脛骨髄内ロッドが刺入されると、中央制御部201のCPUは、撮像画像F内の脛骨B1aに対する脛骨骨切り案内部材の向き及び位置を仮想的に表す第1拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。 For example, in the case of the tibia B1a, the CPU of the central control unit 201 virtually represents the orientation of the intrashinal bone marrow rod with respect to the tibial bone B1a in the captured image F and the position of the insertion point of the intrashinal bone marrow rod. The image AR1 is superimposed on the captured image F and displayed on the display panel 206a (see FIG. 6A). Further, for example, when the intratibial rod is inserted into the tibia B1a, the CPU of the central control unit 201 virtually represents the direction and position of the tibial osteotomy guide member with respect to the tibia B1a in the captured image F. The first augmented reality image (not shown) is superimposed on the captured image F and displayed on the display panel 206a.

また、大腿骨B1bの場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、例えば、図6(b)に示すように、中央制御部201のCPUは、撮像画像F内の大腿骨B1bに対する大腿骨髄内ロッドの向き及び当該大腿骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。 Further, in the case of the femur B1b, the processing content is substantially the same, and detailed description thereof will be omitted here. However, for example, as shown in FIG. 6B, the CPU of the central control unit 201 is in the captured image F. The first augmented reality image AR1 that virtually represents the orientation of the femoral intramedullary rod with respect to the femur B1b and the position of the insertion point of the femoral intramedullary rod is superimposed on the captured image F and displayed on the display panel 206a.

第1拡張現実画像AR1としては、図6(a)及び図6(b)に示すように、長尺な円柱形状のものを例示したが、一例であってこれに限られるものではなく、形状や寸法は適宜任意に変更可能である。また、第1拡張現実画像AR1は、撮像画像Fに重畳表示されるものであるため、図6(a)や図6(b)に示すような半透過の状態か、或いは、外形のみが識別可能に表示された透過状態として、ユーザ(例えば、医者等)による当該撮像画像F内での骨Bの視認を妨げないようにするのが好ましい。 As the first augmented reality image AR1, as shown in FIGS. 6 (a) and 6 (b), a long cylindrical shape is exemplified, but the shape is not limited to this as an example. And dimensions can be changed as appropriate. Further, since the first augmented reality image AR1 is superimposed and displayed on the captured image F, it is in a semi-transparent state as shown in FIGS. 6A and 6B, or only the outer shape is identified. It is preferable that the transparent state displayed as possible does not interfere with the visual recognition of the bone B in the captured image F by the user (for example, a doctor or the like).

なお、図6(a)にあっては、患者Pの脛骨B1a以外の部分の図示は省略し、同様に、図6(b)にあっては、患者Pの大腿骨B1b以外の部分の図示は省略しているが、実際には、脛骨B1aや大腿骨B1bの周囲の組織(例えば、軟骨、腱、靱帯、皮膚等)も撮像部204により撮像されて表示パネル206aに表示された状態となる。 In addition, in FIG. 6A, the illustration of the portion other than the tibia B1a of the patient P is omitted, and similarly, in FIG. 6B, the illustration of the portion other than the femur B1b of the patient P is shown. Is omitted, but in reality, the tissues around the tibia B1a and the femur (for example, cartilage, tendon, ligament, skin, etc.) are also imaged by the imaging unit 204 and displayed on the display panel 206a. Become.

撮像部204は、手術台T上の患者Pの骨Bの表面を撮像する。具体的には、撮像部204は、例えば、図示は省略するが、レンズ部と、電子撮像部と、撮像制御部とを備えている。 The imaging unit 204 images the surface of the bone B of the patient P on the operating table T. Specifically, the image pickup unit 204 includes, for example, a lens unit, an electronic image pickup unit, and an image pickup control unit, although not shown.

レンズ部は、例えば、ズームレンズやフォーカスレンズ等の複数のレンズ(図示略)から構成されている。
電子撮像部は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ(図示略)から構成され、レンズ部の各種レンズを通過した光学像を二次元の画像信号に変換する。
撮像制御部は、タイミング発生器やドライバ(図示略)等により電子撮像部を走査駆動して、所定周期毎にレンズ部により結像された光学像を電子撮像部により二次元の画像信号に変換させ、当該電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して信号処理部205に出力させる。
The lens unit is composed of a plurality of lenses (not shown) such as a zoom lens and a focus lens, for example.
The electronic imaging unit is composed of, for example, an image sensor (not shown) such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal-oxide Semiconductor), and a two-dimensional image signal is obtained from an optical image that has passed through various lenses of the lens unit. Convert to.
The image pickup control unit scans and drives the electronic image pickup unit by a timing generator, a driver (not shown), etc., and converts the optical image formed by the lens unit into a two-dimensional image signal by the electronic image pickup unit at predetermined intervals. Then, the frame image for each screen is read out from the image pickup area of the electronic image pickup unit and output to the signal processing unit 205.

信号処理部205は、電子撮像部から転送されたフレーム画像のアナログ値の信号に対して各種の画像信号処理を施す。
具体的には、信号処理部205は、例えば、フレーム画像のアナログ値の信号に対してRGBの色成分毎に適宜ゲイン調整し、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行って、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
また、信号処理部205は、生成された輝度信号Y及び色差信号Cb,Crをバッファメモリとして使用されるメモリ202に出力する。
The signal processing unit 205 performs various image signal processing on the analog value signal of the frame image transferred from the electronic imaging unit.
Specifically, the signal processing unit 205 appropriately adjusts the gain of each RGB color component with respect to the analog value signal of the frame image, holds the sample with a sample hold circuit (not shown), and performs A / D conversion. It is converted into digital data by a device (not shown), and color process processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown) to perform digital value brightness signal Y and color difference signals Cb, Cr (YUV). Data) is generated.
Further, the signal processing unit 205 outputs the generated luminance signal Y and the color difference signals Cb and Cr to the memory 202 used as the buffer memory.

表示部206は、例えば、中央制御部201のCPUの制御下にて各種情報を表示領域内に表示する。具体的には、表示部206は、例えば、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダ等を備え、中央制御部201のCPUによる各種のアプリケーションプログラムの実行に基づいて、アプリケーション画面を生成し、生成されたアプリケーション画面のデータを表示パネル206aに出力する。
なお、表示パネル206aは、例えば、液晶表示パネルや有機EL表示パネル等から構成されている。
The display unit 206 displays various information in the display area under the control of the CPU of the central control unit 201, for example. Specifically, the display unit 206 includes, for example, a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like, and displays an application screen based on the execution of various application programs by the CPU of the central control unit 201. Generate and output the generated application screen data to the display panel 206a.
The display panel 206a is composed of, for example, a liquid crystal display panel, an organic EL display panel, or the like.

操作部207は、当該第1手術支援端末2の所定操作を行うためのものである。具体的には、操作部207は、電源のON/OFF操作に係る電源ボタン、撮像指示に係るシャッタボタン、各種のモードや機能等の選択指示に係るボタン等(何れも図示略)を備えている。そして、ユーザにより各種ボタンが操作されると、操作部207は、操作されたボタンに応じた操作指示を中央制御部201に出力する。中央制御部201は、操作部207から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像等)を各部に実行させる。
なお、操作部207は、表示部206の表示パネル206aと一体となって設けられたタッチパネル(図示略)を有していても良い。
The operation unit 207 is for performing a predetermined operation of the first surgery support terminal 2. Specifically, the operation unit 207 includes a power button related to power ON / OFF operation, a shutter button related to an imaging instruction, a button related to selection instructions such as various modes and functions (all not shown). There is. Then, when various buttons are operated by the user, the operation unit 207 outputs an operation instruction corresponding to the operated button to the central control unit 201. The central control unit 201 causes each unit to perform a predetermined operation (for example, imaging a subject) according to an operation instruction output from the operation unit 207 and input.
The operation unit 207 may have a touch panel (not shown) provided integrally with the display panel 206a of the display unit 206.

通信制御部208は、病院端末1との間で情報通信を行う。
すなわち、通信制御部208は、例えば、病院端末1の通信制御部106と略同様に、無線LANモジュール等を有し、Peer to Peer(アドホックモード)やインフラストラクチャモードで動作する。
具体的には、通信制御部208は、病院端末1の通信制御部106から送信された患者Pの断層画像データIや術前計画データDを受信する。なお、通信制御部208により受信された断層画像データIや術前計画データDは、記憶部203に出力されて当該記憶部203に記憶される。
The communication control unit 208 performs information communication with the hospital terminal 1.
That is, the communication control unit 208 has, for example, a wireless LAN module or the like substantially like the communication control unit 106 of the hospital terminal 1, and operates in Peer to Peer (ad hoc mode) or infrastructure mode.
Specifically, the communication control unit 208 receives the tomographic image data I and the preoperative planning data D of the patient P transmitted from the communication control unit 106 of the hospital terminal 1. The tomographic image data I and the preoperative planning data D received by the communication control unit 208 are output to the storage unit 203 and stored in the storage unit 203.

<第1術中支援処理>
以下に、人工膝関節置換術における第1術中支援処理について、図5及び図6を参照して説明する。
図5は、第1手術支援端末2を用いた第1術中支援処理に係る動作の一例を示すフローチャートである。また、図6(a)及び図6(b)は、第1術中支援処理にて第1手術支援端末2の表示パネル206aに表示される表示画面の一例を模式的に示す図である。
<1st intraoperative support processing>
The first intraoperative support process in total knee arthroplasty will be described below with reference to FIGS. 5 and 6.
FIG. 5 is a flowchart showing an example of an operation related to the first intraoperative support process using the first surgery support terminal 2. 6 (a) and 6 (b) are diagrams schematically showing an example of a display screen displayed on the display panel 206a of the first surgery support terminal 2 in the first intraoperative support process.

なお、以下の説明では、予め病院端末1にて人工膝関節置換術の術前計画処理が行われて、当該病院端末1から断層画像データI及び術前計画データDが第1手術支援端末2に送信されて、記憶部203に記憶されているものとする。 In the following description, preoperative planning processing for total knee arthroplasty is performed in advance on the hospital terminal 1, and tomographic image data I and preoperative planning data D are converted from the hospital terminal 1 to the first surgery support terminal 2. It is assumed that the data is transmitted to the storage unit 203 and stored in the storage unit 203.

図5に示すように、先ず、中央制御部201のCPUは、患者Pの人工膝関節が取り付けられる予定の脛骨B1a及び大腿骨B1bの三次元形状を表す基準画像、並びに、治具情報を含む術前計画データDを取得する(ステップS1;第1取得処理)。
具体的には、中央制御部201のCPUは、第1取得プログラム203aに従って、記憶部203から断層画像データIを読み出して取得し、患者Pの脛骨B1a及び大腿骨B1bの三次元形状を表す基準画像の画像データを生成して取得する。また、中央制御部201のCPUは、脛骨B1aや大腿骨B1bに対する人工関節構成部材の取付けを案内支援するための脛骨髄内ロッド、脛骨骨切り案内部材、大腿骨髄内ロッド、大腿骨骨切り案内部材等の治具に係る治具情報を含む術前計画データDを取得する。
As shown in FIG. 5, first, the CPU of the central control unit 201 includes a reference image showing the three-dimensional shapes of the tibia B1a and the femur B1b to which the artificial knee joint of the patient P is to be attached, and jig information. Preoperative plan data D is acquired (step S1; first acquisition process).
Specifically, the CPU of the central control unit 201 reads and acquires the tomographic image data I from the storage unit 203 according to the first acquisition program 203a, and is a reference representing the three-dimensional shapes of the tibia B1a and the femur B1b of the patient P. Generate and acquire image data of an image. Further, the CPU of the central control unit 201 guides and supports the attachment of the artificial joint component to the tibia B1a and the femur B1b, such as an intratibial rod, a tibial osteotomy guide member, an intrafemoral rod, and a femur osteotomy guide. Preoperative planning data D including jig information related to a jig such as a member is acquired.

次に、中央制御部201のCPUは、脛骨B1a及び大腿骨B1bのうち、ユーザによる操作部207の所定操作に基づいて指定された一方の骨B(例えば、脛骨B1a等)を第1術中支援処理の対象となる対象骨として指定する(ステップS2)。 Next, the CPU of the central control unit 201 supports one of the tibia B1a and the femur B1b designated based on a predetermined operation of the operation unit 207 by the user (for example, the tibia B1a) during the first operation. It is designated as the target bone to be processed (step S2).

続けて、中央制御部201のCPUは、患者Pの対象骨の表面が撮像された撮像画像Fを逐次取得する(ステップS3;撮像画像取得処理)。
具体的には、手術台T上の患者Pの対象骨(例えば、脛骨B1a等)の撮像部204による撮像が開始されると、信号処理部205は、対象骨の表面が撮像されたフレーム画像(撮像画像F)のデジタル値の画像データ(YUVデータ)を逐次生成してメモリ202に出力する。中央制御部201のCPUは、撮像画像取得プログラム203bに従って、信号処理部205により逐次生成された撮像画像Fの画像データをメモリ202から逐次取得する。
Subsequently, the CPU of the central control unit 201 sequentially acquires the captured image F in which the surface of the target bone of the patient P is captured (step S3; captured image acquisition process).
Specifically, when the imaging unit 204 of the target bone (for example, tibia B1a or the like) of the patient P on the operating table T starts imaging, the signal processing unit 205 captures a frame image of the surface of the target bone. Image data (YUV data) of digital values of (captured image F) is sequentially generated and output to the memory 202. The CPU of the central control unit 201 sequentially acquires the image data of the captured image F sequentially generated by the signal processing unit 205 from the memory 202 according to the captured image acquisition program 203b.

その後、中央制御部201のCPUは、撮像画像F内での患者Pの対象骨の姿勢を推定する(ステップS4;推定処理)。
具体的には、中央制御部201のCPUは、推定プログラム203cに従って、撮像画像取得処理により逐次取得された撮像画像F(例えば、脛骨B1aの表面形状を表す撮像画像F等)を第1取得処理により取得された基準画像(例えば、脛骨B1aを表す基準画像等)と照合して、第1手術支援端末2に対する患者Pの対象骨(例えば、脛骨B1a等)の姿勢及び位置関係を表す行列を推定する。
After that, the CPU of the central control unit 201 estimates the posture of the target bone of the patient P in the captured image F (step S4; estimation process).
Specifically, the CPU of the central control unit 201 first acquires the captured image F (for example, the captured image F representing the surface shape of the tibia B1a) sequentially acquired by the captured image acquisition process according to the estimation program 203c. A matrix showing the posture and positional relationship of the target bone of the patient P (for example, tibia B1a, etc.) with respect to the first surgery support terminal 2 is collated with the reference image (for example, a reference image representing tibia B1a, etc.) acquired by presume.

次に、中央制御部201のCPUは、撮像画像F内の患者Pの対象骨に対する治具の向き及び位置を特定する(ステップS5;第1特定処理)。
具体的には、中央制御部201のCPUは、第1特定プログラム203dに従って、推定処理により推定された撮像画像F内での対象骨(例えば、脛骨B1a等)の姿勢と、第1取得処理により取得された治具情報を含む術前計画データDとに基づいて、撮像画像F内の対象骨の座標系と当該対象骨の三次元モデルの座標系の位置合わせを行って、撮像画像F内の対象骨の座標系での当該対象骨に対する治具の向き及び位置(例えば、脛骨髄内ロッドの向き及び刺入点の位置等)を特定する。
Next, the CPU of the central control unit 201 specifies the direction and position of the jig with respect to the target bone of the patient P in the captured image F (step S5; first specifying process).
Specifically, the CPU of the central control unit 201 determines the posture of the target bone (for example, tibial bone B1a, etc.) in the captured image F estimated by the estimation process according to the first specific program 203d, and the first acquisition process. Based on the preoperative planning data D including the acquired jig information, the coordinate system of the target bone in the captured image F and the coordinate system of the three-dimensional model of the target bone are aligned in the captured image F. The orientation and position of the jig with respect to the target bone in the coordinate system of the target bone (for example, the orientation of the rod in the tibial bone and the position of the insertion point) are specified.

続けて、中央制御部201のCPUは、撮像画像Fに対象骨に対する治具の向き及び位置を拡張現実技術を用いて仮想的に表す第1拡張現実画像AR1を重畳させて表示パネル206aに表示させる(ステップS6;第1表示制御処理)。
具体的には、中央制御部201のCPUは、第1表示制御プログラム203eに従って、第1特定処理により特定された撮像画像F内の患者Pの対象骨(例えば、脛骨B1a等)に対する治具の向き及び位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。
Subsequently, the CPU of the central control unit 201 superimposes the first augmented reality image AR1 that virtually represents the orientation and position of the jig with respect to the target bone on the captured image F and displays it on the display panel 206a. (Step S6; first display control process).
Specifically, the CPU of the central control unit 201 is a jig for the target bone (for example, tibia B1a, etc.) of the patient P in the captured image F specified by the first specific process according to the first display control program 203e. The first augmented reality image AR1 that virtually represents the orientation and position is superimposed on the captured image F and displayed on the display panel 206a.

例えば、対象骨が脛骨B1aの場合、中央制御部201のCPUは、脛骨髄内ロッドの刺入前には、撮像画像F内の脛骨B1aに対する脛骨髄内ロッドの向き及び当該脛骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させ(図6(a)参照)、また、脛骨髄内ロッドの刺入後には、撮像画像F内の脛骨B1aに対する脛骨骨切り案内部材の向き及び位置を仮想的に表す第1拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。
これにより、医者は第1拡張現実画像AR1を視認して、脛骨B1aに対する脛骨髄内ロッドの向きや刺入点の位置、脛骨骨切り案内部材の向き及び位置を把握することができる。
For example, when the target bone is the tibia B1a, the CPU of the central control unit 201 determines the orientation of the tibial intramedullary rod with respect to the tibial bone B1a in the image F and the direction of the tibial intramedullary rod before the insertion of the tibial intramedullary rod. The first augmented reality image AR1 that virtually represents the position of the insertion point is superimposed on the captured image F and displayed on the display panel 206a (see FIG. 6A), and after the insertion of the intratibial rod. A first augmented reality image (not shown) that virtually represents the orientation and position of the tibial osteotomy guide member with respect to the tibia B1a in the captured image F is superimposed on the captured image F and displayed on the display panel 206a.
This allows the doctor to visually recognize the first augmented reality image AR1 and grasp the orientation of the intratibial rod with respect to the tibia B1a, the position of the insertion point, and the orientation and position of the tibial osteotomy guide member.

その後、中央制御部201のCPUは、脛骨B1a及び大腿骨B1bのうち、対象骨となる骨Bが他にあるか否かを判定する(ステップS7)。
ここで、対象骨となる骨Bが他にあると判定されると(ステップS7;YES)、中央制御部201のCPUは、脛骨B1a及び大腿骨B1bのうち、前回対象骨として指定されていない他方の骨B(例えば、大腿骨B1b等)を新たな対象骨として指定した後(ステップS8)、処理をステップS3に戻す。
After that, the CPU of the central control unit 201 determines whether or not there is another bone B as a target bone among the tibia B1a and the femur B1b (step S7).
Here, if it is determined that there is another bone B to be the target bone (step S7; YES), the CPU of the central control unit 201 is not designated as the previous target bone among the tibia B1a and the femur B1b. After designating the other bone B (for example, femur B1b or the like) as a new target bone (step S8), the process returns to step S3.

そして、中央制御部201のCPUは、ステップS3~S6の各処理を上記と略同様にして行い、ステップS6の第1表示制御処理にて、撮像画像F内の患者Pの対象骨(例えば、大腿骨B1b等)に対する治具の向き及び位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させる。 Then, the CPU of the central control unit 201 performs each process of steps S3 to S6 in substantially the same manner as described above, and in the first display control process of step S6, the target bone of the patient P in the captured image F (for example, for example. The first augmented reality image AR1 that virtually represents the orientation and position of the jig with respect to the femur B1b, etc.) is superimposed on the captured image F and displayed on the display panel 206a.

例えば、対象骨が大腿骨B1bの場合、中央制御部201のCPUは、大腿骨髄内ロッドの刺入前には、撮像画像F内の大腿骨B1bに対する大腿骨髄内ロッドの向き及び当該大腿骨髄内ロッドの刺入点の位置を仮想的に表す第1拡張現実画像AR1を撮像画像Fに重畳させて表示パネル206aに表示させ(図6(b)参照)、また、大腿骨髄内ロッドの刺入後では、撮像画像F内の大腿骨B1bに対する大腿骨骨切り案内部材の向き及び位置を仮想的に表す第1拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。
これにより、医者は第1拡張現実画像AR1を視認して、大腿骨B1bに対する大腿骨髄内ロッドの向きや刺入点の位置、大腿骨骨切り案内部材の向き及び位置を把握することができる。
For example, when the target bone is the femur B1b, the CPU of the central control unit 201 determines the orientation of the femur intramedullary rod with respect to the femur B1b in the captured image F and the femoral intramedullary bone before the insertion of the femoral intramedullary rod. The first augmented reality image AR1 that virtually represents the position of the insertion point of the rod is superimposed on the captured image F and displayed on the display panel 206a (see FIG. 6B), and the insertion of the rod in the femur is also performed. Later, a first augmented reality image (not shown) that virtually represents the orientation and position of the femur osteotomy guide member with respect to the femur B1b in the captured image F is superimposed on the captured image F and displayed on the display panel 206a. ..
Thereby, the doctor can visually recognize the first augmented reality image AR1 and grasp the direction of the rod in the femur with respect to the femur B1b, the position of the insertion point, and the direction and position of the femoral osteotomy guide member.

一方、ステップS7にて、対象骨となる骨Bが他にないと判定されると(ステップS7;NO)、中央制御部201のCPUは、当該第1術中支援処理を終了する。 On the other hand, if it is determined in step S7 that there is no other bone B to be the target bone (step S7; NO), the CPU of the central control unit 201 ends the first intraoperative support process.

以上のように、実施形態1の手術支援システム100によれば、第1手術支援端末2は、人工膝関節置換術の術中に、患者Pのインプラント(例えば、人工膝関節等)が取り付けられる予定の骨Bの表面が撮像された撮像画像Fを逐次取得して、この撮像画像F内での骨Bの姿勢を推定し、推定された撮像画像F内での骨Bの姿勢と、骨Bの基準画像に基づく三次元モデル上での当該骨Bに対するインプラントの取付けを案内支援するための治具(例えば、髄内ロッドや骨切り案内部材等)の向きや位置を含む治具情報とに基づいて、逐次取得された撮像画像Fに治具の向きや位置を仮想的に表す第1拡張現実画像AR1を重畳させて表示部206に表示させるので、従来のように、高額なナビゲーションシステムを用いなくとも、医者が表示部206に表示されている第1拡張現実画像AR1を視認するだけで骨Bに対する治具の向きや位置を適正に把握することができ、外科手術の術中支援を高精度で、且つ、低コストで行うことができる。つまり、手術台T上での患者Pの体位の状態に応じて変化する骨Bの向きや位置(特に、回旋等)を考慮して当該骨Bに対する治具の向きや位置を医者が逐次把握することができ、結果として、より正確に人工膝関節の取付けを行うことができるようになる。
特に、第1手術支援端末2としては、例えば、スマートフォンやタブレット等の一般的な端末を適用することができ、当該手術支援システム100の導入コストをより低下させることができる。
さらに、ナビゲーションシステムでは必要なマーカが不要となり、手術時間をより短時間化することができるだけでなく、人工膝関節置換術をより低侵襲で行うことができる。
As described above, according to the operation support system 100 of the first embodiment, the implant of the patient P (for example, the artificial knee joint, etc.) is scheduled to be attached to the first operation support terminal 2 during the operation of the artificial knee joint replacement. The image F in which the surface of the bone B is imaged is sequentially acquired, the posture of the bone B in the image F is estimated, and the posture of the bone B in the estimated image F and the bone B are obtained. In the jig information including the direction and position of the jig (for example, intramedullary rod, osteotomy guide member, etc.) for guiding and supporting the attachment of the implant to the bone B on the three-dimensional model based on the reference image of. Based on this, the first augmented reality image AR1 that virtually represents the orientation and position of the jig is superimposed on the sequentially acquired image F and displayed on the display unit 206, so that an expensive navigation system can be used as in the conventional case. Even if it is not used, the doctor can properly grasp the direction and position of the jig with respect to the bone B only by visually recognizing the first augmented reality image AR1 displayed on the display unit 206, and the intraoperative support for surgical operation is high. It can be done with accuracy and at low cost. That is, the doctor sequentially grasps the direction and position of the jig with respect to the bone B in consideration of the direction and position of the bone B (particularly, rotation, etc.) that changes according to the state of the patient P's position on the operating table T. As a result, the artificial knee joint can be attached more accurately.
In particular, as the first surgery support terminal 2, for example, a general terminal such as a smartphone or a tablet can be applied, and the introduction cost of the surgery support system 100 can be further reduced.
In addition, the navigation system eliminates the need for the required markers, which not only allows for shorter surgery times, but also allows total knee arthroplasty to be performed with less invasiveness.

[実施形態2]
以下に、本発明を適用した実施形態2の手術支援システム100について、図7~図10を参照して説明する。
なお、以下に説明する以外の点は、上記実施形態1と略同様であり、詳細な説明は省略する。
[Embodiment 2]
Hereinafter, the surgical support system 100 of the second embodiment to which the present invention is applied will be described with reference to FIGS. 7 to 10.
The points other than those described below are substantially the same as those in the first embodiment, and detailed description thereof will be omitted.

図7は、実施形態2の手術支援システム100が用いられる人工膝関節置換術を説明するための斜視図である。
実施形態2の手術支援システム100は、図7に示すように、人工股関節置換術に用いられるシステムであり、実施形態1と同様に、無線通信回線を介して情報通信可能に接続された病院端末1と、第2手術支援端末2A(図8参照)とを備えている。
なお、図7には、手術台T上にて側臥位状態の患者Pを例示したが、一例であってこれに限られるものではなく、例えば、患者Pは仰臥位状態であっても良い。
FIG. 7 is a perspective view for explaining total knee arthroplasty in which the surgical support system 100 of the second embodiment is used.
As shown in FIG. 7, the surgery support system 100 of the second embodiment is a system used for total hip arthroplasty, and is a hospital terminal connected to enable information communication via a wireless communication line as in the first embodiment. 1 and a second surgery support terminal 2A (see FIG. 8) are provided.
Note that FIG. 7 illustrates the patient P in the lateral decubitus position on the operating table T, but the present invention is not limited to this, and the patient P may be in the supine position, for example.

<病院端末>
病院端末1は、人工股関節置換術の術前計画を行うためのものである以外の点は、上記実施形態1と略同様である。
すなわち、病院端末1の記憶部103は、例えば、人工股関節置換術前に、医療用断層画像診断装置により患者Pの股関節を構成する骨盤(図示略)及び大腿骨B2が撮像された断層画像データIと、人工股関節置換術の術前計画処理用の術前計画用プログラム103aとを記憶している。
<Hospital terminal>
The hospital terminal 1 is substantially the same as the first embodiment except that it is for performing a preoperative plan for total hip arthroplasty.
That is, for example, the storage unit 103 of the hospital terminal 1 has tomographic image data in which the pelvis (not shown) and the femur B2 constituting the hip joint of the patient P are imaged by a medical tomographic image diagnostic device before the total hip arthroplasty. I and the preoperative planning program 103a for preoperative planning processing of total hip arthroplasty are stored.

術前計画用プログラム103aは、人工股関節置換術の術前計画処理に係る機能を実現させるプログラムである。
すなわち、中央制御部101のCPUは、記憶部103から術前計画用プログラム103aを読み出して、この術前計画用プログラム103aに従って、取付け予定の人工股関節(骨盤側部材(臼蓋カップ)や大腿骨側部材(大腿骨ステム)等の人工関節構成部材)の形状や寸法、臼蓋のリーミング位置やリーミング量、大腿骨B2の骨切り位置等をシミュレーションにより特定する。
The preoperative planning program 103a is a program that realizes a function related to preoperative planning processing of total hip arthroplasty.
That is, the CPU of the central control unit 101 reads the preoperative planning program 103a from the storage unit 103, and according to this preoperative planning program 103a, the artificial hip joint (pelvic side member (pelvic cup) and femur) to be attached is to be attached. The shape and dimensions of the side member (artificial joint component such as the femur stem), the reaming position and reaming amount of the acetabulum, the osteotomy position of the femur B2, and the like are specified by simulation.

具体的には、上記実施形態1と略同様に、中央制御部101のCPUは、上記した断層画像データIから患者Pの骨盤や大腿骨B2の三次元形状を表す画像データを生成する。そして、中央制御部101のCPUは、表示部104に表示された骨盤や大腿骨B2の三次元モデル上で座標系を構築し、人工股関節を構成する骨盤側部材や大腿骨側部材(人工関節構成部材)の設置予定位置等をシミュレーションして特定する。 Specifically, substantially similar to the first embodiment, the CPU of the central control unit 101 generates image data representing the three-dimensional shape of the pelvis and the femur B2 of the patient P from the tomographic image data I described above. Then, the CPU of the central control unit 101 constructs a coordinate system on the three-dimensional model of the pelvis and the femur displayed on the display unit 104, and the pelvis side member and the femur side member (artificial joint) constituting the artificial hip joint. Specify by simulating the planned installation position of the components).

また、中央制御部101のCPUは、断層画像データIに基づいて表示部104に表示された骨盤や大腿骨B2の三次元モデル上での、骨盤や大腿骨B2に対する一の骨加工(骨切りや切削)の適切な向き及び位置のうちの少なくとも一方を含む骨加工情報をシミュレーションして生成する。さらに、骨加工情報には、表示部104に表示され、仮想的に一の骨加工が施された状態の大腿骨B2の三次元モデル上での、一の骨加工後の大腿骨B2に対する大腿骨側部材の取付けのための他の骨加工の向き及び位置のうちの少なくとも一方が含まれる。この骨加工情報は、シミュレーションにより自動的に生成されても良いし、医者による操作部105の所定操作に基づいて一の骨加工や他の骨加工の向きや位置の微調整が行われても良い。 Further, the CPU of the central control unit 101 performs one bone processing (bone cutting) for the pelvis and the femur B2 on the three-dimensional model of the pelvis and the femur B2 displayed on the display unit 104 based on the tomographic image data I. And cutting) to simulate and generate bone processing information including at least one of the appropriate orientations and positions. Further, the bone processing information is displayed on the display unit 104, and the femur with respect to the femur B2 after one bone processing on the three-dimensional model of the femur B2 in a state where one bone processing is virtually performed. Includes at least one of the orientations and positions of other bone processes for attachment of the bone side member. This bone processing information may be automatically generated by simulation, or even if the direction and position of one bone processing or another bone processing is finely adjusted based on a predetermined operation of the operation unit 105 by a doctor. good.

具体的には、一の骨加工としては、例えば、骨盤の臼蓋のリーミング、大腿骨B2の骨頭の骨切り等が挙げられ、他の骨加工としては、例えば、大腿骨B2のリーミングが挙げられる。
また、中央制御部101のCPUは、骨盤の前骨盤平面の傾き、臼蓋の寸法や向き、大腿骨B2の骨頭中心の位置、大腿骨B2の解剖軸等の各種の術中支援パラメータを生成しても良い。
Specifically, one bone processing includes, for example, reaming of the acetabulum of the pelvis, osteotomy of the head of the femur B2, and the like, and examples of other bone processing include reaming of the femur B2. Be done.
In addition, the CPU of the central control unit 101 generates various intraoperative support parameters such as the inclination of the anterior pelvic plane of the pelvis, the size and orientation of the acetabulum, the position of the center of the femur B2, and the anatomical axis of the femur B2. May be.

<第2手術支援端末>
次に、第2手術支援端末2Aについて、図8を参照して詳細に説明する。図8は、第2手術支援端末2Aの機能的構成を示すブロック図である。
第2手術支援端末2Aは、人工股関節置換術の術中支援を行うためのものである以外の点は、上記実施形態1と略同様である。具体的には、図8に示すように、第2手術支援端末2Aの記憶部203は、第2取得プログラム203f、撮像画像取得プログラム203b、推定プログラム203c、第2特定プログラム203g、第2表示制御プログラム203h、断層画像データI、術前計画データD等を記憶している。
<Second surgery support terminal>
Next, the second surgery support terminal 2A will be described in detail with reference to FIG. FIG. 8 is a block diagram showing a functional configuration of the second surgery support terminal 2A.
The second surgical support terminal 2A is substantially the same as the first embodiment except that it is for performing intraoperative support for total hip arthroplasty. Specifically, as shown in FIG. 8, the storage unit 203 of the second surgery support terminal 2A has a second acquisition program 203f, an image capture image acquisition program 203b, an estimation program 203c, a second specific program 203g, and a second display control. The program 203h, tomographic image data I, preoperative planning data D, etc. are stored.

第2取得プログラム203fは、基準画像及び骨加工情報を取得する第2取得処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第2取得プログラム203fを読み出して、この第2取得プログラム203fに従って、第2取得処理を行う。ここで、中央制御部201のCPUは、第2取得プログラム203fとの協働により、第2取得手段として機能する。
The second acquisition program 203f is a program that realizes the function related to the second acquisition process for acquiring the reference image and the bone processing information.
That is, the CPU of the central control unit 201 reads the second acquisition program 203f from the storage unit 203, and performs the second acquisition process according to the second acquisition program 203f. Here, the CPU of the central control unit 201 functions as a second acquisition means in cooperation with the second acquisition program 203f.

具体的には、中央制御部201のCPUは、上記実施形態1の第1取得処理と略同様に、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている断層画像データI、すなわち、人工股関節置換術前に医療用断層画像診断装置により撮像された断層画像データIを記憶部203から読み出して取得する。そして、中央制御部201のCPUは、患者Pの人工股関節が取り付けられる予定の骨盤及び大腿骨B2の三次元形状を表す基準画像の画像データを生成して取得する。この基準画像は、後述する骨加工情報に基づいて骨B(例えば、大腿骨B2)に対して仮想的に一の骨加工が施された状態の三次元形状に係る基準画像を含んでいる。 Specifically, the CPU of the central control unit 201 is transmitted from the hospital terminal 1, received by the communication control unit 208, and stored in the storage unit 203, substantially similar to the first acquisition process of the first embodiment. The tomographic image data I, that is, the tomographic image data I imaged by the medical tomographic image diagnostic apparatus before the artificial hip joint replacement operation is read out from the storage unit 203 and acquired. Then, the CPU of the central control unit 201 generates and acquires image data of a reference image showing the three-dimensional shape of the pelvis and the femur B2 to which the artificial hip joint of the patient P is to be attached. This reference image includes a reference image relating to a three-dimensional shape in which one bone is virtually processed on the bone B (for example, the femur B2) based on the bone processing information described later.

また、中央制御部201のCPUは、病院端末1から送信されて通信制御部208により受信され、記憶部203に記憶されている術前計画データDを記憶部203から読み出して取得する。すなわち、中央制御部201のCPUは、断層画像データIに基づく骨盤や大腿骨B2の三次元モデル上での、骨盤や大腿骨B2に対する一の骨加工の向き及び位置のうちの少なくとも一方、並びに、仮想的に一の骨加工が施された状態の大腿骨B2の三次元モデル上での、大腿骨B2に対する他の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報を含む術前計画データDを取得する。 Further, the CPU of the central control unit 201 reads the preoperative planning data D stored in the storage unit 203 from the storage unit 203, which is transmitted from the hospital terminal 1 and received by the communication control unit 208. That is, the CPU of the central control unit 201 uses at least one of the orientations and positions of one bone processing with respect to the pelvis and the femur B2 on the three-dimensional model of the pelvis and the femur B2 based on the tomographic image data I, and , A technique that includes bone processing information including at least one of the orientations and positions of other bone processing with respect to the femur B2 on a three-dimensional model of the femur B2 in a virtually one bone processing state. Acquire the previous plan data D.

撮像画像取得プログラム203bは、上記実施形態1と略同様に、撮像画像F(図10(a)等参照)を逐次取得する撮像画像取得処理に係る機能を実現させるプログラムである。
すなわち、例えば、人工股関節置換術中に、手術台T上の患者Pの骨盤や大腿骨B2が撮像部204により撮像されると、撮像部204の撮像制御部は、電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出して信号処理部205に出力させる。信号処理部205は、フレーム画像のアナログ値の信号に対して各種の画像信号処理を施して、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成してメモリ202に出力する。中央制御部201のCPUは、メモリ202からフレーム画像(撮像画像F)のデジタル値の画像データ(YUVデータ)を逐次取得する。
The captured image acquisition program 203b is a program that realizes a function related to the captured image acquisition process for sequentially acquiring captured images F (see FIG. 10A and the like), substantially similar to the first embodiment.
That is, for example, when the pelvis or femur B2 of the patient P on the operating table T is imaged by the imaging unit 204 during the artificial hip joint replacement operation, the imaging control unit of the imaging unit 204 is 1 from the imaging region of the electronic imaging unit. The frame image is read out for each screen and output to the signal processing unit 205. The signal processing unit 205 performs various image signal processing on the analog value signal of the frame image, generates a digital value luminance signal Y and a color difference signal Cb, Cr (YUV data), and outputs the digital value to the memory 202. .. The CPU of the central control unit 201 sequentially acquires image data (YUV data) of digital values of the frame image (captured image F) from the memory 202.

また、患者Pの骨Bに対して一の骨加工が行われた後は、中央制御部201のCPUは、撮像画像取得処理にて、一の骨加工後の骨Bが撮像された撮像画像Fの画像データを逐次取得する。 Further, after one bone processing is performed on the bone B of the patient P, the CPU of the central control unit 201 uses the captured image acquisition process to capture the captured image of the bone B after the one bone processing. The image data of F is sequentially acquired.

推定プログラム203cは、上記実施形態1と略同様に、撮像画像F内での患者Pの骨Bの姿勢を推定する推定処理に係る機能を実現させるプログラムである。
すなわち、具体的には、中央制御部201のCPUは、撮像画像取得処理により逐次取得された撮像画像F(例えば、骨盤や大腿骨B2の表面形状を表す撮像画像F等)を第2取得処理により取得された基準画像(例えば、骨盤や大腿骨B2を表す基準画像等)と照合して、その照合結果に基づいて撮像画像F内での患者Pの骨Bの姿勢を推定する。
The estimation program 203c is a program that realizes a function related to an estimation process for estimating the posture of the bone B of the patient P in the captured image F, substantially similar to the first embodiment.
That is, specifically, the CPU of the central control unit 201 acquires the captured image F (for example, the captured image F representing the surface shape of the pelvis and the femur B2) sequentially acquired by the captured image acquisition process for the second acquisition process. The posture of the bone B of the patient P in the captured image F is estimated based on the collation result with the reference image (for example, the reference image representing the pelvis or the femur B2) acquired by.

また、患者Pの骨Bに対して一の骨加工が行われた後は、中央制御部201のCPUは、撮像画像取得処理により逐次取得された撮像画像Fと第2取得処理により取得された基準画像とを照合して、撮像画像F内での一の骨加工後の骨Bの姿勢を推定する。ここで、一の骨加工後の骨Bの姿勢を推定する処理は、上記した一の骨加工前の骨Bの姿勢を推定する処理と略同様であり、ここでは詳細な説明は省略するが、例えば、中央制御部201のCPUは、骨加工情報に基づいて骨B(例えば、大腿骨B2)に対して仮想的に一の骨加工が施された状態の三次元形状を表す基準画像を任意の二次元平面に投影した画像を複数生成して、撮像画像Fとの照合を行うようになっている。 Further, after one bone processing was performed on the bone B of the patient P, the CPU of the central control unit 201 acquired the captured image F sequentially acquired by the captured image acquisition process and the second acquisition process. By collating with the reference image, the posture of the bone B after one bone processing in the captured image F is estimated. Here, the process of estimating the posture of the bone B after one bone processing is substantially the same as the process of estimating the posture of the bone B before one bone processing described above, and detailed description thereof will be omitted here. For example, the CPU of the central control unit 201 produces a reference image showing a three-dimensional shape in a state in which one bone is virtually processed on the bone B (for example, the femur B2) based on the bone processing information. A plurality of images projected on an arbitrary two-dimensional plane are generated and collated with the captured image F.

第2特定プログラム203gは、骨加工の向きや位置を特定する第2特定処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第2特定プログラム203gを読み出して、この第2特定プログラム203gに従って、第2特定処理を行う。ここで、中央制御部201のCPUは、第2特定プログラム203gとの協働により、第2特定手段として機能する。
The second specific program 203g is a program that realizes the function related to the second specific processing that specifies the direction and position of the bone processing.
That is, the CPU of the central control unit 201 reads the second specific program 203g from the storage unit 203, and performs the second specific processing according to the second specific program 203g. Here, the CPU of the central control unit 201 functions as a second specific means in cooperation with the second specific program 203 g.

具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での患者Pの骨B(例えば、骨盤や大腿骨B2等)の姿勢(好ましくは、姿勢及び位置)と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の患者Pの骨Bに対する一の骨加工の向き及び位置のうちの少なくとも一方を特定する。例えば、大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内での大腿骨B2の姿勢と、骨加工情報に含まれる大腿骨B2の三次元モデル上での当該大腿骨B2に対する骨切り(一の骨加工)の向き及び位置とに基づいて、撮像画像F内の大腿骨B2の座標系と当該大腿骨B2の三次元モデルの座標系の位置合わせを行って、撮像画像F内の大腿骨B2の座標系での当該大腿骨B2の骨頭の骨切りの向き及び位置を特定する。 Specifically, the CPU of the central control unit 201 is the posture (preferably the posture and position) of the bone B (for example, the pelvis, the femur B2, etc.) of the patient P in the captured image F estimated by the estimation process. And at least one of the directions and positions of one bone processing with respect to the bone B of the patient P in the captured image F based on the preoperative planning data D including the bone processing information acquired by the second acquisition process. Identify. For example, in the case of the femoral bone B2, the CPU of the central control unit 201 refers to the posture of the femoral bone B2 in the captured image F and the femoral bone B2 on the three-dimensional model of the femoral bone B2 included in the bone processing information. Based on the orientation and position of the osteotomy (one bone processing), the coordinate system of the femoral bone B2 in the captured image F and the coordinate system of the three-dimensional model of the femoral bone B2 are aligned, and the captured image F is performed. The orientation and position of the osteotomy of the head of the femoral bone B2 in the coordinate system of the femoral bone B2 inside is specified.

また、中央制御部201のCPUは、推定処理により推定された撮像画像F内での一の骨加工後の骨B(例えば、大腿骨B2等)の姿勢と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の一の骨加工後の骨Bに対する他の骨加工の向き及び位置のうちの少なくとも一方を特定する。例えば、大腿骨B2の骨頭の骨切りが一の骨加工として行われた場合、中央制御部201のCPUは、撮像画像F内での骨切り後の大腿骨B2の姿勢と、骨加工情報に含まれる仮想的に一の骨加工が施された状態の大腿骨B2の三次元モデル上での一の骨加工後の大腿骨B2に対する大腿骨側部材の取付けのためのリーミング(他の骨加工)の向き及び位置とに基づいて、撮像画像F内の骨切り後の大腿骨B2の座標系と当該大腿骨B2の三次元モデルの座標系の位置合わせを行って、撮像画像F内の骨切り後の大腿骨B2の座標系での当該大腿骨B2のリーミングの向き及び位置を特定する。 Further, the CPU of the central control unit 201 has acquired the posture of one bone B (for example, femur B2, etc.) after bone processing in the captured image F estimated by the estimation process and the second acquisition process. Based on the preoperative planning data D including the bone processing information, at least one of the orientations and positions of the other bone processing with respect to one post-bone processing bone B in the captured image F is specified. For example, when the osteotomy of the head of the femoral bone B2 is performed as one bone processing, the CPU of the central control unit 201 uses the posture of the femoral bone B2 after the osteotomy and the bone processing information in the captured image F. Reaming (other bone processing) for attachment of the femoral side member to the femoral B2 after one bone processing on the three-dimensional model of the femoral bone B2 in the state of being virtually one bone processed included. ), The coordinate system of the femoral bone B2 after osteotomy in the captured image F and the coordinate system of the three-dimensional model of the femoral bone B2 are aligned based on the orientation and position of the bone in the captured image F. The orientation and position of the reaming of the femoral bone B2 in the coordinate system of the femoral bone B2 after cutting are specified.

また、骨盤の場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、中央制御部201のCPUは、撮像画像F内での骨盤の姿勢と、骨加工情報に含まれる骨盤の三次元モデル上での当該骨盤の臼蓋のリーミング(一の骨加工)の向き及び位置とに基づいて、撮像画像F内の骨盤の座標系と当該骨盤の三次元モデルの座標系の位置合わせを行って、撮像画像F内の骨盤の座標系での当該骨盤の臼蓋のリーミングの向き及び位置を特定する。 Further, in the case of the pelvis, the processing content is substantially the same, and although detailed description thereof is omitted here, the CPU of the central control unit 201 uses the posture of the pelvis in the captured image F and the pelvis included in the bone processing information. The position of the pelvic coordinate system in the captured image F and the position of the coordinate system of the pelvic three-dimensional model based on the orientation and position of the reaming (one bone processing) of the pelvis of the pelvis on the three-dimensional model of the above. The alignment is performed to specify the direction and position of the reaming of the pelvic acetabulum in the coordinate system of the pelvis in the captured image F.

第2表示制御プログラム203hは、拡張現実技術を用いて、表示部206の表示パネル206aに拡張現実画像を表示させる第2表示制御処理に係る機能を実現させるプログラムである。
すなわち、中央制御部201のCPUは、記憶部203から第2表示制御プログラム203hを読み出して、この第2表示制御プログラム203hに従って、第2表示制御処理を行う。ここで、中央制御部201のCPUは、第2表示制御プログラム203hとの協働により、第2表示制御手段として機能する。
The second display control program 203h is a program that realizes a function related to the second display control process for displaying an augmented reality image on the display panel 206a of the display unit 206 by using the augmented reality technology.
That is, the CPU of the central control unit 201 reads the second display control program 203h from the storage unit 203, and performs the second display control process according to the second display control program 203h. Here, the CPU of the central control unit 201 functions as a second display control means in cooperation with the second display control program 203h.

具体的には、中央制御部201のCPUは、推定処理により推定された撮像画像F内での骨B(例えば、骨盤や大腿骨B2等)の姿勢(好ましくは、姿勢及び位置)と、第2取得処理により取得された骨加工情報とに基づいて、撮像画像取得処理により逐次取得された撮像画像Fに、一の骨加工の向き及び位置のうちの少なくとも一方を拡張現実技術を用いて仮想的に表す第2拡張現実画像AR2を重畳させて表示パネル206aに表示させる。より具体的には、中央制御部201のCPUは、第2特定処理により特定された撮像画像F内の骨Bに対する一の骨加工の向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内の大腿骨B2の骨頭の骨切りの向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(a)参照)。 Specifically, the CPU of the central control unit 201 has the posture (preferably the posture and position) of the bone B (for example, the pelvis, the femur B2, etc.) in the captured image F estimated by the estimation process, and the first. 2 Based on the bone processing information acquired by the acquisition process, at least one of the orientation and position of one bone processing is virtualized on the captured image F sequentially acquired by the captured image acquisition process using the augmented reality technology. The second augmented reality image AR2 to be represented is superimposed and displayed on the display panel 206a. More specifically, the CPU of the central control unit 201 uses the second augmented reality image AR2 that virtually represents the direction and position of one bone processing with respect to the bone B in the captured image F specified by the second specific processing. It is superimposed on the captured image F and displayed on the display panel 206a. For example, in the case of the femur B2, the CPU of the central control unit 201 superimposes the second augmented reality image AR2 that virtually represents the direction and position of the osteotomy of the femur B2 in the captured image F on the captured image F. It is displayed on the display panel 206a (see FIG. 10A).

また、中央制御部201のCPUは、推定処理により推定された撮像画像F内での一の骨加工後の骨B(例えば、大腿骨B2等)の姿勢(好ましくは、姿勢及び位置)と、第2取得処理により取得された骨加工情報とに基づいて、撮像画像取得処理により逐次取得された撮像画像Fに、他の骨加工の向き及び位置のうちの少なくとも一方を拡張現実技術を用いて仮想的に表す第3拡張現実画像AR3を重畳させて表示パネル206aに表示させる。より具体的には、中央制御部201のCPUは、第2特定処理により特定された撮像画像F内の一の骨加工後の骨Bに対する他の骨加工の向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、大腿骨B2の骨頭の骨切りが一の骨加工として行われた場合、中央制御部201のCPUは、撮像画像F内の骨切り後の大腿骨B2に対する大腿骨側部材の取付けのための当該大腿骨B2のリーミングの向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(b)参照)。 Further, the CPU of the central control unit 201 determines the posture (preferably the posture and position) of the bone B (for example, the femoral bone B2, etc.) after one bone processing in the captured image F estimated by the estimation process. Based on the bone processing information acquired by the second acquisition process, at least one of the orientations and positions of the other bone processing is applied to the captured image F sequentially acquired by the captured image acquisition process using the augmented reality technology. The third augmented reality image AR3, which is virtually represented, is superimposed and displayed on the display panel 206a. More specifically, the CPU of the central control unit 201 virtually represents the direction and position of another bone processing with respect to the bone B after one bone processing in the captured image F specified by the second specific processing. 3 The augmented reality image AR3 is superimposed on the captured image F and displayed on the display panel 206a. For example, when the osteotomy of the head of the femur B2 is performed as one bone processing, the CPU of the central control unit 201 is used to attach the femur side member to the femur B2 after the osteotomy in the captured image F. The third augmented reality image AR3, which virtually represents the direction and position of the reaming of the femur B2, is superimposed on the captured image F and displayed on the display panel 206a (see FIG. 10B).

また、骨盤の場合も処理内容は略同様であり、ここでは詳細な説明は省略するが、例えば、中央制御部201のCPUは、撮像画像F内の骨盤の臼蓋のリーミングの向き及び位置を仮想的に表す第2拡張現実画像(図示略)を撮像画像Fに重畳させて表示パネル206aに表示させる。 Further, in the case of the pelvis, the processing contents are substantially the same, and detailed description thereof will be omitted here. A second augmented reality image (not shown) that is virtually represented is superimposed on the captured image F and displayed on the display panel 206a.

第2拡張現実画像AR2として、骨切り面を表す平面状のものを例示し(図10(a)参照)、第3拡張現実画像AR3として、長尺な円柱形状のものを例示したが(図10(b)参照)、一例であってこれらに限られるものではなく、形状や寸法は適宜任意に変更可能である。また、第2拡張現実画像AR2及び第3拡張現実画像AR2は、第1拡張現実画像AR1と同様に、半透過の状態か、或いは、外形のみが識別可能に表示された透過状態とするのが好ましい。 As the second augmented reality image AR2, a planar one representing the osteotomy surface is exemplified (see FIG. 10A), and as the third augmented reality image AR3, a long cylindrical one is exemplified (FIG. 10). 10 (b)), which is an example and is not limited to these, and the shape and dimensions can be arbitrarily changed as appropriate. Further, the second augmented reality image AR2 and the third augmented reality image AR2 are in a semi-transparent state or a transparent state in which only the outer shape is identifiable, as in the first augmented reality image AR1. preferable.

なお、図10(a)及び図10(b)にあっては、患者Pの大腿骨B2以外の部分の図示は省略しているが、実際には、大腿骨B2の周囲の組織も撮像部204により撮像されて表示パネル206aに表示された状態となる。 In addition, in FIGS. 10 (a) and 10 (b), the part other than the femur B2 of the patient P is not shown, but in reality, the tissue around the femur B2 is also an image pickup unit. It is in a state of being imaged by 204 and displayed on the display panel 206a.

<第2術中支援処理>
以下に、人工股関節置換術における第2術中支援処理について、図9及び図10を参照して説明する。
図9は、第2手術支援端末2Aを用いた第2術中支援処理に係る動作の一例を示すフローチャートである。また、図10(a)及び図10(b)は、第2術中支援処理にて第2手術支援端末2Aの表示パネル206aに表示される表示画面の一例を模式的に示す図である。
<Second intraoperative support processing>
The second intraoperative support process in total hip arthroplasty will be described below with reference to FIGS. 9 and 10.
FIG. 9 is a flowchart showing an example of an operation related to the second intraoperative support process using the second surgery support terminal 2A. Further, FIGS. 10A and 10B are diagrams schematically showing an example of a display screen displayed on the display panel 206a of the second surgery support terminal 2A in the second intraoperative support process.

図9に示すように、先ず、中央制御部201のCPUは、患者Pの人工股関節が取り付けられる予定の骨盤及び大腿骨B2の三次元形状を表す基準画像、並びに、骨加工情報を含む術前計画データDを取得する(ステップS11;第2取得処理)。
具体的には、中央制御部201のCPUは、第2取得プログラム203fに従って、記憶部203から断層画像データIを読み出して取得し、患者Pの骨盤及び大腿骨B2の三次元形状を表す基準画像の画像データを生成して取得する。また、中央制御部201のCPUは、骨盤や大腿骨B2一の骨加工の向き及び位置、並びに、一の骨加工後の大腿骨B2に対する大腿骨側部材の取付けのための他の骨加工の向き及び位置に係る骨加工情報を含む術前計画データDを取得する。
As shown in FIG. 9, first, the CPU of the central control unit 201 includes a reference image showing the three-dimensional shape of the pelvis and the femur B2 to which the artificial hip joint of the patient P is to be attached, and preoperatively including bone processing information. Acquire the plan data D (step S11; second acquisition process).
Specifically, the CPU of the central control unit 201 reads out the tomographic image data I from the storage unit 203 and acquires it according to the second acquisition program 203f, and a reference image showing the three-dimensional shape of the pelvis and the femur B2 of the patient P. Image data of is generated and acquired. Further, the CPU of the central control unit 201 is used for the direction and position of the bone processing of the pelvis and the femur B2, and other bone processing for attaching the femur side member to the femur B2 after the bone processing. Preoperative planning data D including bone processing information related to orientation and position is acquired.

次に、中央制御部201のCPUは、骨盤及び大腿骨B2のうち、ユーザによる操作部207の所定操作に基づいて指定された一方の骨B(例えば、大腿骨B2等)を第2術中支援処理の対象となる対象骨として指定する(ステップS12)。 Next, the CPU of the central control unit 201 supports one of the pelvis and the femur B2 designated based on a predetermined operation of the operation unit 207 by the user (for example, the femur B2) during the second operation. It is designated as the target bone to be processed (step S12).

続けて、中央制御部201のCPUは、実施形態1の第1術中支援処理のステップS3と略同様に、患者Pの対象骨の表面が撮像された撮像画像Fを逐次取得し(ステップS13;撮像画像取得処理)、実施形態1の第1術中支援処理のステップS4と略同様に、撮像画像F内での患者Pの対象骨の姿勢を推定する(ステップS14;推定処理)。 Subsequently, the CPU of the central control unit 201 sequentially acquires the captured image F in which the surface of the target bone of the patient P is imaged, substantially in the same manner as in step S3 of the first intraoperative support process of the first embodiment (step S13; The posture of the target bone of the patient P in the captured image F is estimated (step S14; estimation process) in substantially the same manner as in step S4 of the first intraoperative support process of the first intraoperative support process of the captured image acquisition process).

次に、中央制御部201のCPUは、撮像画像F内の患者Pの対象骨に対する一の骨加工の向き及び位置を特定する(ステップS15;第2特定処理)。
具体的には、中央制御部201のCPUは、第2特定プログラム203gに従って、推定処理により推定された撮像画像F内での対象骨(例えば、大腿骨B2等)の姿勢と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の対象骨の座標系と当該対象骨の三次元モデルの座標系の位置合わせを行って、撮像画像F内の対象骨の座標系での当該対象骨に対する一の骨加工(例えば、大腿骨B2の骨切り等)の向き及び位置を特定する。
Next, the CPU of the central control unit 201 specifies the direction and position of one bone processing with respect to the target bone of the patient P in the captured image F (step S15; second specifying process).
Specifically, the CPU of the central control unit 201 has the posture of the target bone (for example, femoral bone B2, etc.) in the captured image F estimated by the estimation process according to the second specific program 203 g, and the second acquisition process. Based on the preoperative planning data D including the bone processing information acquired by, the coordinate system of the target bone in the captured image F and the coordinate system of the three-dimensional model of the target bone are aligned, and the captured image F is performed. The orientation and position of one bone process (eg, osteotomy of the femoral bone B2) with respect to the target bone in the coordinate system of the target bone within is specified.

続けて、中央制御部201のCPUは、撮像画像Fに対象骨に対する一の骨加工の向き及び位置を拡張現実技術を用いて仮想的に表す第2拡張現実画像AR2を重畳させて表示パネル206aに表示させる(ステップS16;第2表示制御処理)。
具体的には、中央制御部201のCPUは、第2表示制御プログラム203hに従って、第2特定処理により特定された撮像画像F内の患者Pの対象骨(例えば、大腿骨B2等)に対する一の骨加工の向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、対象骨が大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内の大腿骨B2の骨頭の骨切りの向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(a)参照)。
これにより、医者は第2拡張現実画像AR2を視認して、大腿骨B2の骨頭の骨切りの向き及び位置を把握することができる。
Subsequently, the CPU of the central control unit 201 superimposes the second augmented reality image AR2 that virtually represents the direction and position of one bone processing with respect to the target bone on the captured image F by using the augmented reality technology, and displays the panel 206a. (Step S16; second display control process).
Specifically, the CPU of the central control unit 201 is one with respect to the target bone (for example, femur B2, etc.) of the patient P in the captured image F specified by the second specific processing according to the second display control program 203h. The second augmented reality image AR2 that virtually represents the direction and position of the bone processing is superimposed on the captured image F and displayed on the display panel 206a. For example, when the target bone is the femur B2, the CPU of the central control unit 201 captures a second augmented reality image AR2 that virtually represents the direction and position of the osteotomy of the femur B2 in the captured image F. It is superimposed on F and displayed on the display panel 206a (see FIG. 10A).
This allows the doctor to visually recognize the second augmented reality image AR2 and grasp the direction and position of the osteotomy of the head of the femur B2.

その後、中央制御部201のCPUは、例えば、術前計画データDに基づいて、患者Pの対象骨に対するインプラントの取付けのための他の骨加工が必要であるか否かを判定する(ステップS17)。
ここで、他の骨加工が必要であると判定されると(ステップS17;YES)、中央制御部201のCPUは、ステップS13と略同様に、一の骨加工後の対象骨の表面が撮像された撮像画像Fを逐次取得する(ステップS18;撮像画像取得処理)。続けて、中央制御部201のCPUは、ステップS14と略同様に、撮像画像F内での一の骨加工後の対象骨の姿勢を推定する(ステップS19;推定処理)。
After that, the CPU of the central control unit 201 determines, for example, based on the preoperative planning data D, whether or not other bone processing for attaching the implant to the target bone of the patient P is necessary (step S17). ).
Here, when it is determined that other bone processing is necessary (step S17; YES), the CPU of the central control unit 201 captures the surface of the target bone after one bone processing in substantially the same manner as in step S13. The captured images F are sequentially acquired (step S18; captured image acquisition process). Subsequently, the CPU of the central control unit 201 estimates the posture of the target bone after processing one bone in the captured image F in substantially the same manner as in step S14 (step S19; estimation process).

その後、中央制御部201のCPUは、撮像画像F内の一の骨加工後の対象骨に対する他の骨加工の向き及び位置を特定する(ステップS20;第2特定処理)。
具体的には、中央制御部201のCPUは、第2特定プログラム203gに従って、推定処理により推定された撮像画像F内での一の骨加工後の対象骨(例えば、大腿骨B2等)の姿勢と、第2取得処理により取得された骨加工情報を含む術前計画データDとに基づいて、撮像画像F内の一の骨加工後の対象骨の座標系と当該対象骨の三次元モデルの座標系の位置合わせを行って、撮像画像F内の一の骨加工後の対象骨の座標系での当該対象骨に対する他の骨加工(例えば、大腿骨B2のリーミング等)の向き及び位置を特定する。
After that, the CPU of the central control unit 201 specifies the direction and position of the other bone processing with respect to the target bone after one bone processing in the captured image F (step S20; second specifying process).
Specifically, the CPU of the central control unit 201 uses the posture of one bone-processed target bone (for example, femoral bone B2, etc.) in the captured image F estimated by the estimation process according to the second specific program 203g. Based on the preoperative planning data D including the bone processing information acquired by the second acquisition process, the coordinate system of one bone-processed target bone in the captured image F and the three-dimensional model of the target bone. By aligning the coordinate system, the orientation and position of another bone processing (for example, reaming of the femoral bone B2) with respect to the target bone in the coordinate system of the target bone after one bone processing in the captured image F can be determined. Identify.

続けて、中央制御部201のCPUは、撮像画像Fに一の骨加工後の対象骨に対する他の骨加工の向き及び位置を拡張現実技術を用いて仮想的に表す第3拡張現実画像AR3を重畳させて表示パネル206aに表示させる(ステップS21;第2表示制御処理)。
具体的には、中央制御部201のCPUは、第2表示制御プログラム203hに従って、第2特定処理により特定された撮像画像F内の一の骨加工後の対象骨(例えば、大腿骨B2等)に対する他の骨加工の向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、対象骨が大腿骨B2の場合、中央制御部201のCPUは、撮像画像F内の骨切り後の大腿骨B2のリーミングの向き及び位置を仮想的に表す第3拡張現実画像AR3を撮像画像Fに重畳させて表示パネル206aに表示させる(図10(b)参照)。
これにより、医者は第3拡張現実画像AR3を視認して、大腿骨B2のリーミングの向き及び位置を把握することができる。
Subsequently, the CPU of the central control unit 201 displays a third augmented reality image AR3 on the captured image F, which virtually represents the direction and position of another bone process with respect to the target bone after one bone process using augmented reality technology. The images are superimposed and displayed on the display panel 206a (step S21; second display control process).
Specifically, the CPU of the central control unit 201 has a target bone (for example, femur B2, etc.) after one bone processing in the captured image F specified by the second specific processing according to the second display control program 203h. The third augmented reality image AR3, which virtually represents the direction and position of the other bone processing with respect to the image F, is superimposed on the captured image F and displayed on the display panel 206a. For example, when the target bone is the femur B2, the CPU of the central control unit 201 captures a third augmented reality image AR3 that virtually represents the direction and position of the reaming of the femur B2 after osteotomy in the captured image F. It is superimposed on the image F and displayed on the display panel 206a (see FIG. 10B).
This allows the doctor to visually recognize the third augmented reality image AR3 and grasp the direction and position of the reaming of the femur B2.

その後、中央制御部201のCPUは、骨盤及び大腿骨B2のうち、対象骨となる骨Bが他にあるか否かを判定する(ステップS22)。また、ステップS17にて、他の骨加工が必要でないと判定された場合(ステップS17;NO)にも、中央制御部201のCPUは、処理をステップS22に移行し、対象骨となる骨Bが他にあるか否かを判定する。 After that, the CPU of the central control unit 201 determines whether or not there is another bone B as a target bone among the pelvis and the femur B2 (step S22). Further, even when it is determined in step S17 that other bone processing is not necessary (step S17; NO), the CPU of the central control unit 201 shifts the processing to step S22 and the target bone B Determines if there is another.

ステップS22にて、対象骨となる骨Bが他にあると判定されると(ステップS22;YES)、中央制御部201のCPUは、骨盤及び大腿骨B2のうち、前回対象骨として指定されていない他方の骨B(例えば、骨盤等)を新たな対象骨として指定した後(ステップS23)、処理をステップS13に戻す。 When it is determined in step S22 that there is another bone B to be the target bone (step S22; YES), the CPU of the central control unit 201 is designated as the previous target bone among the pelvis and the femur B2. After designating the other bone B (for example, the pelvis) that is not present as a new target bone (step S23), the process returns to step S13.

そして、中央制御部201のCPUは、ステップS13~S16の各処理を上記と略同様にして行い、ステップS16の第2表示制御処理にて、撮像画像F内の患者Pの対象骨(例えば、骨盤等)に対する一の骨加工の向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。例えば、対象骨が骨盤の場合、中央制御部201のCPUは、撮像画像F内の骨盤の臼蓋のリーミングの向き及び位置を仮想的に表す第2拡張現実画像AR2を撮像画像Fに重畳させて表示パネル206aに表示させる。
これにより、医者は第2拡張現実画像AR2を視認して、骨盤の臼蓋のリーミングの向き及び位置を把握することができる。
Then, the CPU of the central control unit 201 performs each process of steps S13 to S16 in substantially the same manner as described above, and in the second display control process of step S16, the target bone of the patient P in the captured image F (for example, for example. The second augmented reality image AR2, which virtually represents the direction and position of one bone processing with respect to the pelvis, etc.), is superimposed on the captured image F and displayed on the display panel 206a. For example, when the target bone is the pelvis, the CPU of the central control unit 201 superimposes the second augmented reality image AR2 that virtually represents the direction and position of the reaming of the acetabulum of the pelvis in the captured image F on the captured image F. Is displayed on the display panel 206a.
This allows the doctor to visually recognize the second augmented reality image AR2 and grasp the direction and position of the reaming of the pelvic acetabulum.

その後、ステップS17にて、中央制御部201のCPUは、患者Pの対象骨に対するインプラントの取付けのための他の骨加工が必要であるか否かを判定する。例えば、対象骨が骨盤の場合、臼蓋のリーミング以外の他の骨加工が不要であることから、中央制御部201のCPUは、他の骨加工が必要でないと判定して(ステップS17;NO)、処理をステップS22に移行する。 Then, in step S17, the CPU of the central control unit 201 determines whether or not other bone processing is required to attach the implant to the target bone of the patient P. For example, when the target bone is the pelvis, other bone processing other than reaming of the acetabulum is unnecessary, so that the CPU of the central control unit 201 determines that other bone processing is not necessary (step S17; NO). ), The process proceeds to step S22.

一方、ステップS22にて、対象骨となる骨Bが他にないと判定されると(ステップS22;NO)、中央制御部201のCPUは、当該第2術中支援処理を終了する。 On the other hand, if it is determined in step S22 that there is no other bone B to be the target bone (step S22; NO), the CPU of the central control unit 201 ends the second intraoperative support process.

以上のように、実施形態2の手術支援システム100によれば、第2手術支援端末2Aは、人工股関節置換術の術中に、患者Pの骨加工される予定の骨Bの表面が撮像された撮像画像Fを逐次取得して、この撮像画像F内での骨Bの姿勢を推定し、推定された撮像画像F内での骨Bの姿勢と、骨Bの基準画像に基づく三次元モデル上での当該骨Bに対する一の骨加工の向きや位置を含む骨加工情報とに基づいて、逐次取得された撮像画像Fに一の骨加工の向きや位置を仮想的に表す第2拡張現実画像AR2を重畳させて表示部206に表示させるので、従来のように、高額なナビゲーションシステムを用いなくとも、医者が表示部206に表示されている第2拡張現実画像AR2を視認するだけで骨Bに対する一の骨加工の向きや位置を適正に把握することができ、外科手術の術中支援を高精度で、且つ、低コストで行うことができる。つまり、手術台T上での患者Pの体位の状態に応じて変化する骨Bの向きや位置(特に、回旋等)を考慮して当該骨Bに対する一の骨加工の向きや位置を医者が逐次把握することができ、結果として、より正確に一の骨加工を行うことができるようになる。 As described above, according to the operation support system 100 of the second embodiment, the second operation support terminal 2A has an image of the surface of the bone B of the patient P to be processed during the operation of the artificial hip joint replacement. The captured image F is sequentially acquired, the posture of the bone B in the captured image F is estimated, and the posture of the bone B in the estimated captured image F and the three-dimensional model based on the reference image of the bone B are displayed. A second augmented reality image that virtually represents the direction and position of one bone processing in the sequentially acquired image F based on the bone processing information including the direction and position of one bone processing with respect to the bone B in. Since AR2 is superimposed and displayed on the display unit 206, the bone B can be simply viewed by the doctor on the second augmented reality image AR2 displayed on the display unit 206 without using an expensive navigation system as in the conventional case. It is possible to properly grasp the direction and position of one bone processing with respect to the bone, and it is possible to provide intraoperative support for surgical operation with high accuracy and at low cost. That is, the doctor determines the direction and position of one bone processing with respect to the bone B in consideration of the direction and position of the bone B (particularly, rotation, etc.) that changes according to the state of the patient P's position on the operating table T. It can be grasped sequentially, and as a result, one bone processing can be performed more accurately.

さらに、一の骨加工後には、当該一の骨加工後の骨Bが撮像された撮像画像Fを逐次取得し、逐次取得された撮像画像Fと骨Bに対して仮想的に一の骨加工が施された状態の三次元形状に係る基準画像とを照合して、この撮像画像F内での一の骨加工後の骨Bの姿勢を推定し、推定された撮像画像F内での一の骨加工後の骨Bの姿勢と、骨Bの基準画像に基づく三次元モデル上での当該一の骨加工後の骨Bに対するインプラントの取付けのための他の骨加工の向きや位置を含む骨加工情報とに基づいて、逐次取得された撮像画像Fに他の骨加工の向きや位置を仮想的に表す第3拡張現実画像AR3を重畳させて表示部206に表示させるので、骨Bに対して一の骨加工が施された状態でも、医者が表示部206に表示されている第3拡張現実画像AR3を視認するだけで一の骨加工後の骨Bに対する他の骨加工の向きや位置を適正に把握することができる。 Further, after one bone processing, the captured image F in which the bone B after the one bone processing is imaged is sequentially acquired, and one bone processing is performed virtually with respect to the sequentially acquired captured image F and the bone B. By collating with the reference image related to the three-dimensional shape in the state where the above is applied, the posture of the bone B after one bone processing in the captured image F is estimated, and one in the estimated captured image F. Includes the posture of bone B after bone processing and the orientation and position of other bone processing for attachment of the implant to the bone B after one bone processing on a three-dimensional model based on the reference image of bone B. Based on the bone processing information, the third augmented reality image AR3 that virtually represents the direction and position of other bone processing is superimposed on the image F that is sequentially acquired and displayed on the display unit 206, so that the bone B is displayed. On the other hand, even in the state where one bone processing is performed, the direction of other bone processing with respect to the bone B after one bone processing can be obtained simply by visually recognizing the third augmented reality image AR3 displayed on the display unit 206. The position can be grasped properly.

なお、本発明は、上記実施形態1、2に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、インプラントとして、人工膝関節や人工股関節を例示したが、一例であってこれに限られるものではなく、例えば、脊椎ケージや人工椎体など適宜任意に変更可能である。また、例えば、人工膝関節置換術においては、実施形態1のように、髄内ロッドや骨切り案内部材(治具)を用いずに、実施形態2のように、脛骨B1aや大腿骨B1bに対する骨加工の向きや位置を拡張現実技術を用いて仮想的に表すようにしても良い。このとき、骨Bに対する骨加工が複数回行われる場合には、実施形態2のように、一の骨加工後の骨Bの姿勢を推定し、他の骨加工の向きや位置を拡張現実技術を用いて仮想的に表すようにしても良い。
The present invention is not limited to the first and second embodiments, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, an artificial knee joint and an artificial hip joint have been exemplified as implants, but the present invention is not limited to this, and for example, a spinal cage or an artificial vertebral body can be arbitrarily changed. Further, for example, in total knee arthroplasty, the tibia B1a and the femur B1b are treated as in the second embodiment without using the intramedullary rod and the osteotomy guide member (jig) as in the first embodiment. The direction and position of bone processing may be virtually represented using augmented reality technology. At this time, when the bone processing on the bone B is performed a plurality of times, the posture of the bone B after one bone processing is estimated and the direction and position of the other bone processing are augmented reality technology as in the second embodiment. May be used to virtually represent it.

また、上記実施形態1にあっては、第1拡張現実画像AR1として、脛骨髄内ロッドや大腿骨髄内ロッド等の治具の向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該治具の向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。さらに、第1拡張現実画像AR1は、治具の向きや位置を直接的に表すものに変えて、或いは、加えて、治具の向きや位置を間接的に表し、当該治具の向きや位置の調整の基準となる位置(例えば、脛骨B1aの場合、後十字靭帯付着部、脛骨結節内縁等)を表すものであっても良い。 Further, in the first embodiment, as the first augmented reality image AR1, an example is shown in which both the orientation and the position of the jig such as the tibial bone marrow intramedullary rod and the femoral intramedullary rod are virtually represented. However, the present invention is not limited to this, and for example, any one of the orientation and the position of the jig may be virtually represented. Further, the first augmented reality image AR1 is changed to one that directly represents the orientation and position of the jig, or in addition, indirectly represents the orientation and position of the jig, and the orientation and position of the jig. It may represent a position that serves as a reference for adjustment (for example, in the case of tibia B1a, the posterior cruciate ligament attachment portion, the inner edge of the tibial nodule, etc.).

また、上記実施形態2にあっては、第2拡張現実画像AR2として、一の骨加工の向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該一の骨加工の向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。同様に、第3拡張現実画像AR3として、インプラントの取付けのための他の骨加工の向き及び位置の両方を仮想的に表すものを例示したが、一例であってこれに限られるものではなく、例えば、当該他の骨加工の向き及び位置のうち、何れか一方を仮想的に表すものであっても良い。さらに、第2拡張現実画像AR2や第3拡張現実画像AR3は、一の骨加工や他の骨加工の向きや位置を直接的に表すものに変えて、或いは、加えて、一の骨加工や他の骨加工の向きや位置を間接的に表し、当該一の骨加工や他の骨加工の向きや位置の調整の基準となる位置(例えば、大腿骨B2の場合、骨軸等)を表すものであっても良い。
また、第1~第3拡張現実画像AR1~AR3を表示する際に、撮像画像Fと基準画像との照合状態を表すために骨Bの三次元モデルも併せて表示パネル206aに表示するようにしても良い。
Further, in the second embodiment, as the second augmented reality image AR2, an example that virtually represents both the direction and the position of one bone processing is exemplified, but it is an example and is not limited to this. However, for example, one of the directions and positions of the one bone processing may be virtually represented. Similarly, the third augmented reality image AR3 exemplifies, but is not limited to, an example that virtually represents both the orientation and position of other bone processes for implant attachment. For example, one of the directions and positions of the other bone processing may be virtually represented. Further, the second augmented reality image AR2 and the third augmented reality image AR3 are changed to those that directly represent the direction and position of one bone processing or another bone processing, or in addition, one bone processing or It indirectly represents the direction and position of other bone processing, and represents the position that is the reference for adjusting the direction and position of the one bone processing and other bone processing (for example, in the case of femur B2, the bone axis, etc.). It may be a thing.
Further, when displaying the first to third augmented reality images AR1 to AR3, the three-dimensional model of the bone B is also displayed on the display panel 206a in order to show the collation state between the captured image F and the reference image. May be.

さらに、上記実施形態1、2にあっては、例えば、予め人種、年齢及び性別などの人の身体的特徴の各々に対応する標準的な骨Bの三次元形状を表す画像データを複数用意しておき、患者Pの骨Bの断層画像データIがない場合には、当該患者Pの身体的特徴に合致する画像データを基準画像として利用しても良い。 Further, in the above-described first and second embodiments, for example, a plurality of image data representing the standard three-dimensional shape of the bone B corresponding to each of the physical characteristics of a person such as race, age and gender are prepared in advance. However, if there is no tomographic image data I of the bone B of the patient P, image data matching the physical characteristics of the patient P may be used as a reference image.

また、上記実施形態1、2にあっては、手術支援システム100として、病院端末1と第1手術支援端末2や第2手術支援端末2Aとが無線通信回線を介して接続された構成を例示したが、一例であってこれに限られるものではなく、例えば、有線ケーブル(図示略)を用いて情報通信可能に接続されていても良い。また、無線通信回線として、無線LANを例示したが、一例であってこれに限られるものではなく、例えば、Bluetooth(登録商標)を用いても良い。 Further, in the first and second embodiments, as the surgery support system 100, a configuration in which the hospital terminal 1 and the first surgery support terminal 2 and the second surgery support terminal 2A are connected via a wireless communication line is exemplified. However, this is only an example, and the present invention is not limited to this. For example, a wired cable (not shown) may be used to enable information communication. Further, the wireless LAN is exemplified as the wireless communication line, but the present invention is not limited to this, and Bluetooth (registered trademark) may be used, for example.

さらに、第1手術支援端末2及び第2手術支援端末2Aの構成は、一例であってこれらに限られるものではない。例えば、術前計画処理を病院端末1にて行うようにしたが、一例であってこれに限られるものではなく、例えば、第1手術支援端末2及び第2手術支援端末2Aが行っても良く、この場合には、断層画像データI及び術前計画データDのうち、少なくとも断層画像データIを取得すれば良い。また、第1手術支援端末2及び第2手術支援端末2Aは、断層画像データIや術前計画データDをメモリカード等の記憶媒体を介して病院端末1から取得しても良い。さらに、第1手術支援端末2及び第2手術支援端末2Aとしては、例えば、ウェアラブルコンピューターデバイス、特に、頭部装着型コンピューターデバイス(ヘッドマウンティドディスプレイ)を用いても良い。 Further, the configurations of the first surgery support terminal 2 and the second surgery support terminal 2A are merely examples and are not limited thereto. For example, the preoperative planning process is performed on the hospital terminal 1, but this is only an example and is not limited to this. For example, the first surgery support terminal 2 and the second surgery support terminal 2A may perform the preoperative planning process. In this case, at least the tomographic image data I may be acquired from the tomographic image data I and the preoperative planning data D. Further, the first surgery support terminal 2 and the second surgery support terminal 2A may acquire the tomographic image data I and the preoperative planning data D from the hospital terminal 1 via a storage medium such as a memory card. Further, as the first surgery support terminal 2 and the second surgery support terminal 2A, for example, a wearable computer device, particularly a head-worn computer device (head mounted display) may be used.

また、上記実施形態1の第1手術支援端末2にあっては、第1取得手段、撮像画像取得手段、推定手段及び第1表示制御手段等としての機能が、中央制御部201のCPUにより所定のプログラム等が実行されることにより実現されるようにしたが、所定のロジック回路により実現されても良い。
同様に、上記実施形態2の第2手術支援端末2Aにあっては、第2取得手段、撮像画像取得手段、推定手段及び第2表示制御手段等としての機能が、中央制御部201のCPUにより所定のプログラム等が実行されることにより実現されるようにしたが、所定のロジック回路により実現されても良い。
Further, in the first surgery support terminal 2 of the first embodiment, the functions as the first acquisition means, the captured image acquisition means, the estimation means, the first display control means, and the like are predetermined by the CPU of the central control unit 201. Although it is realized by executing the program of the above, it may be realized by a predetermined logic circuit.
Similarly, in the second surgery support terminal 2A of the second embodiment, the functions as the second acquisition means, the captured image acquisition means, the estimation means, the second display control means, and the like are performed by the CPU of the central control unit 201. Although it is realized by executing a predetermined program or the like, it may be realized by a predetermined logic circuit.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD-ROM等の可搬型記憶媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Further, as a computer-readable medium containing a program for executing each of the above processes, a non-volatile memory such as a flash memory and a portable storage medium such as a CD-ROM shall be applied in addition to a ROM and a hard disk. Is also possible. A carrier wave is also applied as a medium for providing program data via a predetermined communication line.

加えて、今回開示された実施形態は、全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。 In addition, the embodiments disclosed this time should be considered to be exemplary and not restrictive in all respects. The scope of the present invention is shown by the scope of claims rather than the above description, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

100 手術支援システム
1 病院端末
2 第1手術支援端末
2A 第2手術支援端末
201 中央制御部(第1取得手段、撮像画像取得手段、推定手段、第1表示制御手段、第1特定手段、第2取得手段、第2表示制御手段、第2特定手段)
203 記憶部
204 撮像部
206 表示部
206a 表示パネル
AR1~AR3 第1~第3拡張現実画像
B 骨
B1a 脛骨
B1b、B2 大腿骨
F 撮像画像
100 Surgery support system 1 Hospital terminal 2 1st surgery support terminal 2A 2nd surgery support terminal 201 Central control unit (1st acquisition means, captured image acquisition means, estimation means, 1st display control means, 1st specific means, 2nd Acquisition means, second display control means, second specific means)
203 Storage unit 204 Imaging unit 206 Display unit 206a Display panel AR1 to AR3 1st to 3rd augmented reality images B bone B1a tibia B1b, B2 femur F captured image

Claims (10)

撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨にインプラントを取り付ける際に用いられる手術支援端末であって、
前記大腿骨又は前記脛骨のうち患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する前記インプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段と、
前記撮像部が撮像した患者の前記骨の表面撮像画像を逐次取得する撮像画像取得手段と、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段と、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて前記表示部に表示させる第1表示制御手段と、
を備えることを特徴とする手術支援端末。
It is a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, and is used when attaching an implant to the femur or tibia.
To guide and support the attachment of the implant to the bone on the reference image relating to the three-dimensional shape of the femur or the tibia to which the patient's implant is to be attached and the three-dimensional model based on the reference image. The first acquisition means for acquiring the jig information including at least one of the orientation and the position of the jig of
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the first acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the jig information acquired by the first acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A first display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig and displaying it on the display unit.
A surgical support terminal characterized by being equipped with.
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像内の前記骨に対する前記治具の向き及び位置のうちの少なくとも一方を特定する第1特定手段を更に備え、
前記第1表示制御手段は、前記第1特定手段により特定された前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す前記第1拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項1に記載の手術支援端末。
The orientation of the jig with respect to the bone in the captured image based on the posture of the bone in the captured image estimated by the estimation means and the jig information acquired by the first acquisition means. And further provided with a first identifying means of identifying at least one of the locations,
The first display control means superimposes the first augmented reality image that virtually represents at least one of the orientations and positions of the jig specified by the first specific means on the captured image, and displays the display. The surgical support terminal according to claim 1, wherein the surgical support terminal is displayed on a unit.
前記インプラントは、関節を構成する前記大腿骨及び前記脛骨のうち、一の骨に対応する人工関節構成部材を含み、
前記治具は、前記一の骨にその関節面側から刺入される髄内ロッドを含み、
前記第1表示制御手段は、前記第1特定手段により特定された前記髄内ロッドの向き及び当該髄内ロッドの刺入点の位置のうちの少なくとも一方を仮想的に表す前記第1拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項2に記載の手術支援端末。
The implant comprises an artificial joint component corresponding to one of the femur and tibia constituting the knee joint.
The jig comprises an intramedullary rod that is inserted into the one bone from its articular surface side.
The first display control means virtually represents at least one of the orientation of the intramedullary rod and the position of the insertion point of the intramedullary rod specified by the first specific means. The surgical support terminal according to claim 2, wherein the image is superimposed on the captured image and displayed on the display unit.
前記インプラントは、関節を構成する前記大腿骨及び前記脛骨のうち、一の骨に対応し、当該一の骨の骨切り後に取り付けられる人工関節構成部材を含み、
前記治具は、前記一の骨に取り付けられ、当該一の骨の骨切りを案内する骨切り案内部材を含み、
前記第1表示制御手段は、前記第1特定手段により特定された前記骨切り案内部材の向き及び位置のうちの少なくとも一方を仮想的に表す前記第1拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項2に記載の手術支援端末。
The implant comprises an artificial joint component that corresponds to one of the femurs and tibias constituting the knee joint and is attached after osteotomy of the one bone.
The jig is attached to the one bone and includes an osteotomy guide member for guiding the osteotomy of the one bone.
The first display control means superimposes the first augmented reality image that virtually represents at least one of the directions and positions of the osteotomy guide member specified by the first specific means on the captured image. The surgical support terminal according to claim 2, wherein the display is displayed on the display unit.
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨の骨加工を行う際に用いられる手術支援端末であって、
前記大腿骨又は前記脛骨のうち患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段と、
前記撮像部が撮像した患者の前記骨の表面撮像画像を逐次取得する撮像画像取得手段と、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段と、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段と、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて前記表示部に表示させる第2表示制御手段と、
を備えることを特徴とする手術支援端末。
It is a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, and is used when performing bone processing on the femur or tibia.
A reference image relating to the three-dimensional shape of the femur or the tibia to be processed in the patient's bone, and the direction and position of one bone processing with respect to the bone on the three-dimensional model based on the reference image. A second acquisition means for acquiring bone processing information including at least one of them,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the second acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A second display control means for superimposing a second augmented reality image that virtually represents at least one of the directions and positions of the one bone processing and displaying it on the display unit.
A surgical support terminal characterized by being equipped with.
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像内の前記骨に対する前記一の骨加工の向き及び位置のうちの少なくとも一方を特定する第2特定手段を更に備え、
前記第2表示制御手段は、前記第2特定手段により特定された前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す前記第2拡張現実画像を前記撮像画像に重畳させて前記表示部に表示させることを特徴とする請求項5に記載の手術支援端末。
The one bone processing on the bone in the captured image based on the posture of the bone in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means. Further provided with a second specifying means for specifying at least one of the orientation and position of the
The second display control means superimposes the second augmented reality image, which virtually represents at least one of the directions and positions of the one bone processing specified by the second specific means, on the captured image. The surgical support terminal according to claim 5, wherein the display is displayed on the display unit.
前記基準画像は、前記第2取得手段により取得された前記骨加工情報に基づいて前記骨に対して仮想的に前記一の骨加工が施された状態の三次元形状に係る基準画像を含み、
前記撮像画像取得手段は、前記一の骨加工後の骨が撮像された撮像画像を逐次取得し、
前記推定手段は、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記一の骨加工後の骨の姿勢を推定することを特徴とする請求項5又は6に記載の手術支援端末。
The reference image includes a reference image relating to a three-dimensional shape in a state in which the one bone processing is virtually applied to the bone based on the bone processing information acquired by the second acquisition means.
The captured image acquisition means sequentially acquires an captured image in which the bone after the one bone processing is captured.
The estimation means collates the captured images sequentially acquired by the captured image acquisition means with the reference image acquired by the second acquisition means, and the bone after the one bone processing in the captured image is collated. The surgical support terminal according to claim 5 or 6, wherein the posture is estimated.
前記骨加工情報は、前記基準画像に基づく三次元モデル上での前記一の骨加工後の骨に対するインプラントの取付けのための他の骨加工の向き及び位置のうちの少なくとも一方を含み、
前記第2表示制御手段は、更に、前記推定手段により推定された前記撮像画像内での前記一の骨加工後の骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記他の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第3拡張現実画像を重畳させて前記表示部に表示させることを特徴とする請求項7に記載の手術支援端末。
The bone processing information includes at least one of the orientations and positions of the other bone processing for attachment of the implant to the bone after the one bone processing on the three-dimensional model based on the reference image.
The second display control means further includes the posture of the bone after the one bone processing in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means. Based on this, a third augmented reality image that virtually represents at least one of the directions and positions of the other bone processing is superimposed on the captured images sequentially acquired by the captured image acquisition means and displayed on the display unit. The surgical support terminal according to claim 7, wherein the surgical support terminal is characterized in that.
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨にインプラントを取り付ける際に用いられる手術支援端末のコンピュータを、
前記大腿骨又は前記脛骨のうち患者のインプラントが取付けられる予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する前記インプラントの取付けを案内支援するための治具の向き及び位置のうちの少なくとも一方を含む治具情報とを取得する第1取得手段、
前記撮像部が撮像した患者の前記骨の表面撮像画像を逐次取得する撮像画像取得手段、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第1取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第1取得手段により取得された前記治具情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記治具の向き及び位置のうちの少なくとも一方を仮想的に表す第1拡張現実画像を重畳させて前記表示部に表示させる第1表示制御手段、
として機能させることを特徴とするプログラム。
A computer for a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, which is used when attaching an implant to the femur or tibia .
To guide and support the attachment of the implant to the bone on the reference image relating to the three-dimensional shape of the femur or the tibia to which the patient's implant is to be attached and the three-dimensional model based on the reference image. First acquisition means for acquiring jig information including at least one of the orientation and position of the jig,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the first acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the jig information acquired by the first acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A first display control means for superimposing a first augmented reality image that virtually represents at least one of the orientation and position of the jig and displaying it on the display unit.
A program characterized by functioning as.
撮像部、表示部及び姿勢センサーを備え、大腿骨又は脛骨の骨加工を行う際に用いられる手術支援端末のコンピュータを、
前記大腿骨及び前記脛骨のうち患者の骨加工される予定の骨の三次元形状に係る基準画像と、前記基準画像に基づく三次元モデル上での前記骨に対する一の骨加工の向き及び位置のうちの少なくとも一方を含む骨加工情報とを取得する第2取得手段、
前記撮像部が撮像した患者の前記骨の表面撮像画像を逐次取得する撮像画像取得手段、
当該手術支援端末を前記大腿骨の所定位置に固定した状態で前記大腿骨の遠位端側を回動させたときに、前記姿勢センサーから得られる測定情報に基づいて、前記大腿骨の骨頭中心の位置の絶対座標を算出する骨頭中心算出手段、
前記骨頭中心算出手段により算出された前記骨頭中心の位置の絶対座標から前記撮像画像の座標系における前記大腿骨の骨頭中心の位置を特定するとともに、前記撮像画像取得手段により逐次取得された撮像画像と前記第2取得手段により取得された基準画像とを照合して、前記撮像画像内での前記骨の姿勢を推定する推定手段、
前記推定手段により推定された前記撮像画像内での前記骨の姿勢と、前記第2取得手段により取得された前記骨加工情報とに基づいて、前記撮像画像取得手段により逐次取得された撮像画像に前記一の骨加工の向き及び位置のうちの少なくとも一方を仮想的に表す第2拡張現実画像を重畳させて前記表示部に表示させる第2表示制御手段、
として機能させることを特徴とするプログラム。
A computer of a surgical support terminal equipped with an imaging unit, a display unit, and a posture sensor, which is used when processing the bones of the femur or tibia .
A reference image relating to the three-dimensional shape of the femur and the tibia to be processed in the patient's bone, and the direction and position of one bone processing with respect to the bone on the three-dimensional model based on the reference image. A second acquisition means for acquiring bone processing information including at least one of them,
An image capture image acquisition means for sequentially acquiring an image captured on the surface of the bone of a patient imaged by the image pickup unit.
When the distal end side of the femur is rotated with the surgical support terminal fixed at a predetermined position of the femur, the center of the femur head is based on the measurement information obtained from the posture sensor. A means for calculating the center of the femoral head, which calculates the absolute coordinates of the position of
The position of the center of the femoral head in the coordinate system of the captured image is specified from the absolute coordinates of the position of the center of the head calculated by the means for calculating the center of the head, and the captured image sequentially acquired by the captured image acquisition means. And the estimation means for estimating the posture of the bone in the captured image by collating with the reference image acquired by the second acquisition means.
Based on the posture of the bone in the captured image estimated by the estimation means and the bone processing information acquired by the second acquisition means, the captured image sequentially acquired by the captured image acquisition means is obtained. A second display control means for superimposing a second augmented reality image that virtually represents at least one of the directions and positions of the one bone processing and displaying it on the display unit.
A program characterized by functioning as.
JP2017178979A 2016-09-16 2017-09-19 Surgery support terminals and programs Active JP7012302B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016197589 2016-09-16
JP2016197589 2016-09-16

Publications (2)

Publication Number Publication Date
JP2018047240A JP2018047240A (en) 2018-03-29
JP7012302B2 true JP7012302B2 (en) 2022-01-28

Family

ID=61767079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017178979A Active JP7012302B2 (en) 2016-09-16 2017-09-19 Surgery support terminals and programs

Country Status (1)

Country Link
JP (1) JP7012302B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7125049B2 (en) * 2018-06-01 2022-08-24 インテリジェンスファクトリー合同会社 Surgery support marker and surgery support system
CA3127605C (en) * 2019-01-23 2022-08-02 Proprio, Inc. Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site
WO2020217591A1 (en) * 2019-04-25 2020-10-29 株式会社Nttドコモ Image processing system showing jig arrangement
JP2021019967A (en) * 2019-07-30 2021-02-18 春仁 上園 Augmented reality information display method, surgical operation support device, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036700A (en) 2012-08-10 2014-02-27 Arthro Design Kk Navigation device for joint replacement operation, and operation assistance apparatus
WO2014200017A1 (en) 2013-06-11 2014-12-18 Tanji Atsushi Bone cutting assistance system, information processing device, image processing method, and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014036700A (en) 2012-08-10 2014-02-27 Arthro Design Kk Navigation device for joint replacement operation, and operation assistance apparatus
WO2014200017A1 (en) 2013-06-11 2014-12-18 Tanji Atsushi Bone cutting assistance system, information processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2018047240A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
CN111031954B (en) Sensory enhancement system and method for use in medical procedures
CN109069208B (en) Ultra-wideband positioning for wireless ultrasound tracking and communication
US11275249B2 (en) Augmented visualization during surgery
US10398514B2 (en) Systems and methods for sensory augmentation in medical procedures
JP2022133440A (en) Systems and methods for augmented reality display in navigated surgeries
US8706197B2 (en) Planning method and planning device for knee implants
JP7012302B2 (en) Surgery support terminals and programs
JP2020075109A (en) System and method for in-surgery image analysis
EP3273854A1 (en) Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera
US20170215966A1 (en) Surgical assistance apparatus, program, storage medium, and surgical assistance method
US20200205900A1 (en) Dynamic 3d motion capture for surgical implant orientation
JP2015516228A (en) Portable tracking system, method using portable tracking system
JP6823665B2 (en) Surgical support system
US20230013210A1 (en) Robotic revision knee arthroplasty virtual reconstruction system
US20230068971A1 (en) Fluoroscopic robotic prosthetic implant system and methods
Pflugi et al. A cost-effective navigation system for peri-acetabular osteotomy surgery
WO2021174295A1 (en) Surgical impactor navigation systems and methods
WO2023064433A1 (en) Methods for surgical registration and tracking using hybrid imaging devices and systems thereof
JP2021019967A (en) Augmented reality information display method, surgical operation support device, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170919

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200826

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220107

R150 Certificate of patent or registration of utility model

Ref document number: 7012302

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150