JP2023520602A - 二次元医用画像ベースの脊椎手術計画装置及び方法 - Google Patents

二次元医用画像ベースの脊椎手術計画装置及び方法 Download PDF

Info

Publication number
JP2023520602A
JP2023520602A JP2022560938A JP2022560938A JP2023520602A JP 2023520602 A JP2023520602 A JP 2023520602A JP 2022560938 A JP2022560938 A JP 2022560938A JP 2022560938 A JP2022560938 A JP 2022560938A JP 2023520602 A JP2023520602 A JP 2023520602A
Authority
JP
Japan
Prior art keywords
image
spinal
solid
spine
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022560938A
Other languages
English (en)
Inventor
キム、ホン・ホ
ワン、スン・タク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Curexo Inc
Original Assignee
Curexo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Curexo Inc filed Critical Curexo Inc
Publication of JP2023520602A publication Critical patent/JP2023520602A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4603Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof
    • A61F2/4611Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof of spinal prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/56Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1662Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
    • A61B17/1671Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the spine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/56Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
    • A61B2017/568Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor produced with shape and dimensions specific for an individual patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • A61B2090/066Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring torque
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/44Joints for the spine, e.g. vertebrae, spinal discs
    • A61F2/4455Joints for the spine, e.g. vertebrae, spinal discs for the fusion of spinal bodies, e.g. intervertebral fusion of adjacent spinal bodies, e.g. fusion cages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2002/30001Additional features of subject-matter classified in A61F2/28, A61F2/30 and subgroups thereof
    • A61F2002/30003Material related properties of the prosthesis or of a coating on the prosthesis
    • A61F2002/3006Properties of materials and coating materials
    • A61F2002/3008Properties of materials and coating materials radio-opaque, e.g. radio-opaque markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2002/4632Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor using computer-controlled surgery, e.g. robotic surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2002/4632Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor using computer-controlled surgery, e.g. robotic surgery
    • A61F2002/4633Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor using computer-controlled surgery, e.g. robotic surgery for selection of endoprosthetic joints or for pre-operative planning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Transplantation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Neurology (AREA)
  • Cardiology (AREA)
  • Vascular Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pathology (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Gynecology & Obstetrics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Surgical Instruments (AREA)

Abstract

本発明に係る脊椎手術計画方法は、医用画像撮影装置を介して患者の二次元の脊椎画像を取得するステップと、前記脊椎画像に対する画像空間と患者の脊椎手術が進行される手術空間とを整合して、前記画像空間上の座標と前記手術空間上の座標との間の整合関係を算出するステップと、前記手術空間に仮想の立体図形を生成するステップと、前記整合関係を基に前記立体図形を前記脊椎画像上に投影するステップと、前記立体図形が前記脊椎画像上の既定のランドマークに対応するように前記立体図形を調整するステップと、前記脊椎画像と前記立体図形を基に脊椎プロテーゼの挿入位置及び経路を設定するステップと、を含む。これにより、CT撮影なしで2次元脊椎画像に基づいて計画を行うことができ、患者の放射線暴露やCT画像の整合に伴う手続きの煩雑さを低減できるとともに、正確な計画が可能なので効果的にCT画像を代替することができる。【選択図】図2

Description

本発明は脊椎手術計画装置及び方法に関し、より具体的には、二次元の脊椎医用画像に基づいてナビゲーション手術またはロボット手術のための計画を行う装置及び方法に関する。
ナビゲーションや手術用ロボットを介した脊椎手術の際に、患者の医用画像に基づいて手術計画を樹立する計画段階を経る。例えば、椎弓根スクリュー(Pedicle screw)を脊椎茎を介して脊椎体(Vertebra body)に挿入及び固定する椎弓根スクリューの固定手術時には、患者及び施術部位に応じて適正な椎弓根スクリューの長さ、直径等を決定し、挿入位置及び経路に対する計画を立てる手続きが先行される。
このように、椎弓根スクリューの固定手術のための計画を行う際には、脊椎の軸方向ビューが最も有利である。したがって、従来の技術によれば、手術前にコンピュータ断層撮影(Computed Tomography,CT)を介して軸方向画像を施術者に提供することにより、軸方向画像に基づいて手術前に計画が行われるようにしている。
このようにCT画像に基づいて従来の計画方法によれば、軸方向画像で計画を行うことができるという利点があるが、CT撮影時に長時間の放射線に露出されて人体に有害であるという欠点がある。特に、脊椎手術の際には、手術計画に従って手術が進行しているかをリアルタイムで検証したり、手術ツールをナビゲーションするために、実際の手術過程においてもモバイルC-armなどの画像撮影装置を介して画像撮影が行われるので、放射線露出に応じた問題がさらに重み付けられる。
また、手術前に計画されたCT画像をC-armなどを介して手術中に撮影された画像と整合(Registration)する過程が必要であり、患者が動いたり、撮影装置が移動するたびに整合を再度行わなければならないので面倒だけでなく手術の手続きが遅れるという問題もある。また、2次元画像と3次元画像の整合は高度な整合技術が必要であり、画像の品質に応じて高い精度で整合するのに多くの技術的難しさがある。さらに、脊椎の特性上、患者の姿勢に応じて手術前の画像と手術中の画像で脊椎の相対関係が大きく異なって現れるので、手術しようとする脊椎別に整合を何度も繰り返さなければならない煩わしさがある。
したがって、C-arm画像などの2次元医用画像を基に計画を提供できれば、CT画像の撮影による放射線露出を低減することができ、2次元画像と3次元画像との間の整合を行わなくてすむので、前述した問題を解決できる。ただし、二次元の医用画像では軸方向ビューが分からないので、計画の基に活用するには現実的に難しさがある。
本発明は、上述の従来の脊椎手術計画技術の問題を解決するために案出されたものであり、C-arm画像をはじめとする二次元の医用画像に基づいて脊椎手術のための計画を行う装置及び方法を提供することを目的とする。
前記目的は、本発明の一態様に係る医用画像撮影装置を介して患者の二次元の脊椎画像を取得するステップと、前記脊椎画像に対する画像空間と患者の脊椎手術が進行される手術空間とを整合して、前記画像空間上の座標と前記手術空間上の座標との間の整合関係を算出するステップと、前記手術空間に仮想の立体図形を生成するステップと、前記整合関係を基に前記立体図形を前記脊椎画像上に投影するステップと、前記立体図形が前記脊椎画像上の既定のランドマークに対応するように前記立体図形を調整するステップと、前記脊椎画像と前記立体図形を基に脊椎プロテーゼの挿入位置及び経路を設定するステップと、を含むことを特徴とする脊椎手術計画方法により達成することができる。
ここで、前記立体図形を調整するステップは、前記脊椎画像上に投影された立体図形に対するユーザの入力を基に前記立体図形の形状、大きさ及び位置の中の少なくとも1つを調整することであり得る。
一方、前記脊椎プロテーゼの挿入位置及び経路を設定するステップは、互いに異なるビュー方向にそれぞれ対応する複数の脊椎画像を基に行われることができる。
また、前記互いに異なるビュー方向にそれぞれ対応する複数の脊椎画像は、AP(Anterior-Posterior)画像とLL(Lateral-Lateral)画像とを含むことができる。
また、前記脊椎プロテーゼの挿入位置及び経路を設定するステップは、ユーザ入力部を介したユーザの入力を基に前記脊椎プロテーゼの挿入位置及び経路を設定することができる。
そして、前記立体図形を調整するステップは、前記立体図形が前記脊椎画像上に投影されて形成された図形の境界が前記脊椎画像上の脊椎体(Vertebra body)の境界に対応するように前記立体図形を調整することができる。
ここで、前記立体図形は柱状であり得る。
さらに、前記立体図形を調整するステップは、前記柱状の底面の中心を通る前記底面上の第1の軸と垂直をなす前記柱状の側面上の第1の線が前記脊椎画像上の棘突起(Spinous process)の中心線に揃えられるように前記立体図形を調整することができる。
一方、前記脊椎画像上に前記脊椎プロテーゼの挿入基準となる基準点を設定するステップをさらに含み、前記脊椎プロテーゼの挿入位置及び経路を設定するステップは、前記基準点を基に前記脊椎プロテーゼの挿入位置または挿入経路の許容範囲を制限することができる。
また、前記立体図形を生成するステップは、前記脊椎画像で脊椎体の位置を検出し、検出された前記脊椎体に対応する位置に前記立体図形を生成することができる。
さらに、前記立体図形を生成するステップは、脊椎体の特性に応じた前記立体図形の大きさ、形状及び高さの中の少なくともいずれか1つの属性を定義したライブラリを基に前記脊椎画像で認識された前記脊椎体の特性に対応する前記立体図形を生成することができる。
さらに、前記の目的は、本発明の他の態様に係る医用画像撮影装置を介して撮影された患者の二次元の脊椎画像を格納するメモリ部と、前記脊椎画像に対する画像空間と患者の脊椎手術が進行される手術空間とを整合して、前記画像空間上の座標と手術空間上の座標との間の整合関係を算出する整合部と、前記手術空間に仮想の立体図形を生成し、前記整合関係を基に前記立体図形を前記脊椎画像上に投影する図形生成部と、前記立体図形が前記脊椎画像上の既定のランドマークに対応するように前記立体図形を調整する図形調整部と、前記脊椎画像と前記立体図を基に脊椎プロテーゼの挿入位置及び経路を設定する計画部と、を含むことを特徴とする脊椎手術計画装置によりも達成することができる。
ここで、前記脊椎画像と、前記脊椎画像に投影された前記立体図形と、を表示する表示部をさらに含むことができる。
さらに、前記整合関係を基に前記立体図形に対する3次元画像を生成する3Dビュー生成部をさらに含み、前記計画部は、前記整合関係を基に前記脊椎画像と前記三次元画像の中のいずれか1つの画像内の前記脊椎プロテーゼに対する変更事項が相互に反映されるように制御して、ユーザの利便性が図れる。
本発明によれば、二次元の医用画像に基づいて計画を行い、従来のCT撮影による放射線露出を低減することができる。また、3次元画像との整合処理を省略することができ、手続きの利便性が増大する。
さらに、本発明によれば、二次元の医用画像に基づいて計画を行いながらも、ユーザが所望の視点で脊椎体と椎弓根スクリューの位置関係を把握できる三次元ビュー画像を生成して提供することにより、CT画像を効果的に代替することができると同時に、ナビゲーション手術とロボット手術の精度を保障することができる。
本発明の実施形態に係る脊椎手術計画装置を含む脊椎手術システムの構成を概略的に示す構成図である。 本発明の実施形態に係る脊椎手術計画装置の構成を示すブロック図である。 本発明の実施形態に係る図形生成部によって生成された仮想の立体図形が2次元の脊椎画像に投影される様子を図式化した図である。 本発明の実施形態に係る図形生成部によって生成された仮想の立体図形が2次元の脊椎画像に投影される様子を図式化した図である。 本発明の実施形態に係る図形調整部によって立体図形が調整される例を示す図である。 本発明の実施形態に係る図形調整部によって立体図形が調整される例を示す図である。 本発明の実施形態に係る3Dビュー生成部によって生成された3次元画像の例である。 本発明の実施形態に係る計画部を介した計画過程において表示部に提供される画面の例である。 本発明の実施形態に係る脊椎手術計画方法の過程を示すフローチャートである。
以下、図面を参照して本発明の具体的な実施形態について説明する。ただし、以下の説明及び添付図面において本発明の要旨をぼかすことができる公知の機能または構成に対する詳細な説明は省略する。なお、図面全体にわたって同一の構成要素は、可能な限り同一の参照番号で示されていることに留意しなければならない。
図1は、本発明の実施形態に係る脊椎手術計画装置を含む脊椎手術システムの構成を概略的に示す構成図である。
図1を参照すると、手術現場に配置される脊椎手術システム1は、医用画像撮影装置100、手術ロボット200、トラッキング装置300、及び脊椎手術計画装置400を含む。
医用画像撮影装置100は患者の脊椎画像を撮影する装置であり、図1には医用画像撮影装置100の一例としてC-arm が示されている。参考として、C-armは「C」字形状のフレームの両端に設けられたX-rayソース(Source)とディテクタ(Detector)を介して2次元画像を撮影する装置である。ただし、C-armは医用画像撮影装置100の一例であり、C-armの外にX線などを人体に照射して2次元画像を撮影する他の種類の装置が適用されることもできる。
医用画像撮影装置100は、フレームの回転や並進運動を介して患者対比ソースとディテクタの位置を移動させて様々な視点(view)、すなわち、互いに異なる方向や角度からオブジェクトを見た複数の医用画像を獲得することができる。例えば、人体の前方(Anterior)から後方(Posterior)にX線を照射してAP(Anterior-Posterior)画像を取得し、側面から側面にX線を照射してLL(Lateral-Lateral)画像を取得することができる。
手術ロボット200は、椎弓根スクリューの挿入術などの脊椎手術を行うロボットであり、ロボットベース201、ロボットアーム203、ロボットアーム203の動作を制御するロボット制御部205を含み、ロボットアーム203の端部のエンドエフェクタには、穴拡げ工具、ドライバのような各種の手術ツール203aが結合されることができる。また、手術ロボット200には、エンドエフェクタに加わる力とトルクがセンシングできる力/トルクセンサ(図示せず)を装着することができる。手術ロボット200のベース201と手術ツール203aには、手術中の手術ロボット200の位置追跡時にその基準となる光学式マーカーを取り付けることができる。
参考として、図1においては、手術ロボット200を用いて脊椎手術を行うことが示されているが、手術ロボット200の代わりに手術用ナビゲーション装置(Medical navigation system)が適用されることができる。
トラッキング装置300は、手術対象部位と手術ロボット200に固定された光学式マーカーの位置と姿勢(Pose)を追跡するためのものであり、光学式追跡システム(Optical Tracking System,OTS)で具現されることができる。参考として、光学式追跡システムは、マーカーを2台の赤外線カメラによって追跡し、三角測量法でその距離を換算することにより、3次元空間上での位置及び姿勢をリアルタイムで追跡できる装置である。商用化された光学式追跡システムは、光学式マーカーまでの距離、方位、高さの外にも、光学式マーカー座標系の間の変換機能も提供しており、このような光学式追跡システムの追跡原理は広く知られているので、説明の簡略化のために具体的な説明は省略する。
脊椎手術計画装置400は、ナビゲーション装置や手術ロボットを介した脊椎手術のために椎弓根スクリューなどをはじめとして、脊椎手術時に挿入及び固定される各種の脊椎プロテーゼの長さ、直径、大きさ等を決定し、挿入位置、方向、角度、経路、深さなどに関する手術計画を行うことができるコンピュータシミュレーション環境を提供する。
脊椎手術計画装置400は、プロセッサとディスプレイを含んで具現することができる。図1においては、脊椎手術計画装置400が手術ロボット200と物理的に分離されて別の装置として具現されるように示されているが、場合によっては脊椎手術計画装置400のプロセッサは手術ロボット200の内に、また、ディスプレイはトラッキング装置300に接続されて一緒に設けられ、通信モジュールを介して様々な情報を送受信するように具現することができる。
図2は、本発明の実施形態に係る脊椎手術計画装置400の詳細構成を示すブロック図である。図2を参照すると、本発明の実施形態に係る脊椎手術計画装置400は、受信部410、ユーザ入力部420、表示部430、メモリ部440、及び制御部450を含む。
受信部410は、外部から信号や各種のデータを受信するためのものであり、例えば、外部機器との接続のためのHDMI(登録商標)(High Definition Multimedia Interface)コネクタ、ディサブ(D-sub)コネクタ、またはインターネット網をはじめとする有線/無線ネットワークと接続するための通信モジュールを含むことができる。受信部410は、医用画像撮影装置100、手術ロボット200、トラッキング装置300から各種の情報を送受信する。例えば、受信部410は、医用画像撮影装置100で撮影された画像、手術ロボット200でセンシングした各種のロボット状態情報を受信することができ、トラッキング装置300から追跡された手術対象部位及び手術ロボット200の位置と姿勢に関する情報を受信する。
ユーザ入力部420は、脊椎手術計画と手術過程においてユーザから各種の入力を受信して後述する制御部450に伝達するためのものであり、キーボード、マウス、またはボタンなどの様々な入力装置で具現されることができる。
表示部430は、画像、グラフィックなどを含む各種の情報を画面に表示するためのものであり、液晶ディスプレイ(LCD)パネル、発光ダイオード(LED)パネル、有機発光ダイオード(OLED)パネルなどで具現されることができる。また、タッチスクリーンなどのように、ユーザ入力部420と表示部430が総合されて1つの装置で具現されることができる。表示部430は、ロボット手術の進行中に脊椎画像、脊椎プロテーゼの挿入位置と経路を設定するための計画画面などを表示する。
ユーザ入力部420と表示部430は、他の構成と物理的に分離して構成されることができる。一例として、受信部410、メモリ部440、及び制御部450は手術ロボット200の本体に統合されて具現され、ユーザ入力部420及び表示部430はトラッキング装置300及び手術ロボット200と通信で接続された別の装置で具現することができる。
メモリ部440はRAM等のメモリ素子で具現され、脊椎手術計画装置400の様々なオペレーティングシステム(OS)、ミドルウェア、プラットフォーム、及び各種のアプリケーションを格納することができ、プログラムコード及び信号処理された画像信号、音声信号及び各種のデータを格納することができる。また、メモリ部440は、医用画像撮影装置100を介して撮影された患者の2次元の脊椎画像、脊椎手術計画時に活用されるライブラリ(Library)、脊椎プロテーゼの挿入基準情報などを格納する。
制御部450は、ユーザ入力部420を介して入力されたユーザの入力または内部のプログラムによって脊椎手術計画装置400の全般的な動作を制御する。制御部450は、信号処理及び制御のためのプログラムコード及びプログラムを実行するプロセッサを含んで具現することができる。制御部450は、受信部410を介して受信した2次元の脊椎画像とトラッキング装置300から受信する光学式マーカーの位置及び姿勢情報を基に脊椎画像に対する画像空間と患者の脊椎手術が進行される手術空間とを整合し、脊椎プロテーゼの挿入位置及び経路を設定する計画機能を提供する。
図2を参照すると、制御部450は、整合部451、図形生成部453、図形調整部455、3Dビュー生成部457及び計画部459を含む。参考として、説明の便宜上、制御部450を機能的に細部構成に区分したが、制御部450は細部構成である整合部451、図形生成部452、図形調整部455、3Dビュー生成部457及び計画部459の各機能を行うための命令語を含んで作成されたソフトウェアプログラムとそれを実行するプロセッサで具現することができる。
整合部451は、医用画像撮影装置100を介して取得された脊椎画像に対する画像空間と患者の脊椎手術が進行される手術空間とを整合し、画像空間と手術空間上の座標間の整合関係を算出する。この際に、整合部451は、患者の互いに異なる方向に対して撮影された複数の2次元画像、例えばAP画像とLL画像とを3次元の手術空間に対して整合することができる。参考として、画像空間は画像座標系(Image coordinate system)を基準として定義され、手術空間は手術空間の座標系を基準として定義される空間であり、手術空間の座標系は手術空間内のマーカーであり、例えば患者の手術身体の部位などに取り付けられ、トラッキング装置300によって検出されるマーカーを基準として定義することができる。
整合部451は、公知の様々な整合アルゴリズムを基に画像空間と手術空間の座標系を整合することができる。例えば、整合部451は、2次元の脊椎画像の撮影時のX線投射パラメータ(Projection parameter)を決定するためにトラッキング装置300によってX線ソースとディテクタに取り付けられたマーカーを検出し、ソースとディテクタの空間座標を算出し、医用画像撮影装置100に対するキャリブレーション(calibration)を行い、上記パラメータを基に整合を行うことができる。このように、医用画像撮影装置100のキャリブレーションパラメータを基に画像空間と手術空間を整合することは、当該分野の通常の技術者に広く知られており、説明の簡略化のために詳細な説明は省略する。
一方、本出願人が2019年3月13日付で大韓民国特許庁に出願した特許出願第2019-0028592号「C-armベースの医用画像システム及び2D画像と3D空間の整合方法」に開示された方法を適用して整合を行うこともできる。これについて簡略に説明すると、整合部451は、医用画像撮影装置100を介して撮影された2次元の脊椎画像をワッピング(warping)アルゴリズムを適用して空間位置を正確に把握できるX線投射経路上の他の平面に逆投影して生成された投影画像を基に整合を行うことができる。特に、上記の整合方法は、医用画像撮影装置100のX線ソースとディテクタの位置を識別するのが困難な場合に有用に活用することができる。
このように、整合部451を介した整合の結果、医用画像撮影装置100を介して撮影された複数の二次元の脊椎画像の空間と手術空間上の互いに対応する位置を把握することができる。
図形生成部453は、手術空間に仮想の立体図形を生成し、整合部451による整合関係を基に立体図形を脊椎画像上に投影する。この際に、仮想の立体図形は、楕円柱、円柱、多角柱などのような柱状を有することができる。図形生成部453は、整合部451による整合関係を基に脊椎画像の中心に対応する位置空間に立体図形を生成することができる。また、これとは異なり、図形生成部453は、脊椎画像で手術対象脊椎体の位置を検出し、検出された脊椎体に対応する位置空間に立体図形を生成することもできる。図形生成部453は、整合部451を介して算出された整合関係を基に2次元の脊椎画像上の脊椎体に対応する手術空間上の位置に仮想の立体図形を生成し、脊椎画像上に当該立体図形を投影できる。
この際に、脊椎体の位置検出は、ユーザ入力部420を介してユーザから脊椎体の位置が直接入力されることができ、または、脊椎画像の明るさ、色、画像オブジェクトの形状などを分析して特定の部分や領域を検出する公知の様々な画像認識アルゴリズムを介して自動的に行うことができる。また、脊椎体の位置がラベリングされた脊椎画像訓練データを基に機械学習を行うか、CNN(Convolutional Neural Network)、CDBN(Convolutional Deep Belief Network)などのアルゴリズムに基づくディープラーニングを行い、脊椎体の位置を自動的に検出するように具現することができる。
図形生成部453は、任意の形状、大きさに応じた立体図形を生成することもできるが、メモリ部440に格納されたライブラリを基に脊椎画像で認識された脊椎体の形状、大きさなど固有の特性に対応する立体図形を生成できる。ここで、ライブラリは、脊椎体の特性や患者の特性に応じて立体図形の大きさ、形状、高さなど立体図形の属性を定義したもので、患者ごとに脊椎体の大きさや形状などが異なることを反映して当該患者に適した立体図形を提供するためのことである。ライブラリは、現在の手術が行われている脊椎体の位置及び患者の年齢、性別、身長などの患者の特性に応じた脊椎体の形状、大きさ、高さなど、脊椎体の属性に関連する関連因子に応じた標準統計データを基に事前に構築して格納することができる。
図形生成部453は、ライブラリでユーザが直接選択した立体図形を生成することができ、あるいはユーザ入力部420を介して患者の情報、脊椎体の特性に関する情報が入力され、入力された情報を基にライブラリで立体図形を選択して生成することもできる。さらに、図形生成部453は、画像認識アルゴリズムを基に患者の脊椎画像を処理して患者の椎体体の形状、大きさなどを認識し、認識の結果を基にライブラリから患者に適した立体図形を生成することができる。
図形生成部453は、脊椎体の具体的な形状、手術対象脊椎体の位置、患者の特性に応じて柱体の種類、柱体の形状、柱の高さ、大きさ、底面の半径、楕円の長軸と短軸の比率などを異なるように生成することができる。例えば、患者の年齢が低い場合、背が低い場合、当該患者の脊椎体が統計値より少し小さい場合、それに対応して大きさまたは高さが相対的に小さい立体図形を生成することができる。
図形生成部453によって二次元の脊椎画像に投影された立体図形は、表示部430を介して脊椎画像上に重ねて表示され、ユーザに提供される。
図形生成部453は、前述したように、患者の特性(年齢、性別、背等)や手術対象脊椎体の位置、脊椎体の特性に対応して初期に形成される立体図形を適応的に決定することにより、後述する立体図形の調整プロセスを最小化させるようにしてユーザの利便性を向上させ、計画にかかる時間を短縮することができる。
図3及び図4は、本発明の実施形態に係る図形生成部453によって生成された仮想の立体図形が2次元の脊椎画像に投影される様子を図式化したものである。
図3及び図4を参照すると、図3は楕円柱状の立体図形VをAP画像上に投影する様子を図式化したものであり、図4は立体図形VをLL画像上に投影する様子を図式化したものである。ここで、第1の線vd1は患者の脊椎体上端の中心線に対応する線であり、立体図形の底面v1の中心Oを通る底面v1上の第1軸va1と垂直をなす側面上の2つの線vd1、vd2の中の上端に位置する線である。第2の線vd2は、患者の脊椎体裾の中心線に対応する線であり、第1の軸va1と垂直をなす側面上の2つの線vd1、vd2の中の下端に位置する線である。このように、vd1とvd2は、立体図形の中心軸を基準にして互いに対称的な位置に存在する関係を有する。
一方、図3において、vd1APと及びvd2APは、それぞれ立体図形Vの側面上の線vd1、vd2がAP脊椎画像上に投影された線であり、vd1 LL及びvd2LLは、それぞれ立体図形Vの側面上の線vd1、vd2がLL脊椎画像上に投影された線である。参考として、AP脊椎画像及びLL脊椎画像上のvd1AP、vd2AP、vd1LL、vd2LLの位置は、医用画像撮影装置100のX線ソースXの具体的な位置に応じて異なり得る。
図形調整部455は、脊椎画像上に投影された立体図形(以下、投影図形)が脊椎画像上の既定のランドマークに対応するように立体図形を調整する。図形調整部455は、立体図形の形状、大きさ、高さ、位置などを変更することができる。この際に、立体図形の調整は、ユーザ入力部420を介したユーザの入力を基に行うことができる。このために、図形調整部455は、図形生成部453によって脊椎画像上に投影された立体図形の各部分にユーザが調整可能なコントロールポイント(Control point)を生成して提供し、ユーザはユーザ入力部420のマウスやキーボードなどを用いてコントロールポイントの位置を動かして脊椎画像上に投影され、重ねて表示された図形の形状、大きさ、高さ、位置などを変更することができる。
図5と図6は、図形調整部455によってユーザ入力部420を介したユーザの操作に応じて立体図形が調整される一例を示す。参考として、図5はAP画像において立体図形が調整される様子を示し、図6はLL画像において立体図形が調整される様子を示す。
図5を参照すると、AP脊椎画像上の投影図形VAP’は、4つの辺SAP、IAP、LAP、RAPからなり、前述したように、立体図形Vの側面上の2つの線vd1、vd2に対応する投影線のvd1AP、vd2APを含む。
ユーザは、ユーザ入力部420を介して投影図形VAP’に備えられたコントロールポイントp1、p2、p3、p4、p5、p6を操作して投影図形VAP’の位置や大きさ、形状などを変更することができる。
図5は、AP脊椎画像上の投影図形VAP’の位置及び大きさが変更される例を示す。例えば、ユーザは、投影図形VAP’の境界、すなわち4つの辺SAP、IAP、LAP、RAPがAP脊椎画像上の手術対象脊椎体の境界に対応するように投影図形VAP’の位置と大きさなどを調整できる。この際に、4つの辺の中のSAPは脊椎体の上端(Superior)の境界に対応するように、IAPは脊椎体の下端(Inferior)の境界に、RAPは脊椎体の右側の境界に、LAPは脊椎体の左側の境界にそれぞれ対応するように調整する。図5の調整前の画像においては、投影図形VAP’が脊椎体からずれていたが、調整後の画像においては脊椎体の位置及び形状に対応するように調整されたことが確認できる。
これと同時に、ユーザは、脊椎体の上端の中心線に対応する立体図形Vの第1の側面線vd1に対応する第1の投影線vd1APがAP脊椎画像上の棘突起(spinous process)の中心線に揃えられるように投影図形VAP’を調整することができる。このように、第1の投影線vd1APの位置を移動すると、これと対称的な位置に存在する第2の投影線vd2APの位置も一緒に移動される。
図6は、LL脊椎画像に投影された投影図形VLL’の位置及び大きさが変更される例であり、図6を参照すると、投影図形VLL’は4つの辺PLL、SLL、ALL、ILLからなり、立体図形Vの側面上の2つの線vd1、vd2に対応する投影線のvd1LL、vd2LLを含む。参考として、図6において調整前には目視で6つの線、すなわち、PLL、SLL、ALL、ILL、vd1LL、vd2LLが全て見え、調整後には4つの線のみが見えるが、第1の投影線vd1LLが辺PLLと重ねて1つの線のように見え、第2の投影線vd2LLと辺ALLが重ねて1つの線のように見えることであり、実際には調整前と同様に6つの線がすべて存在することである。
ユーザは、ユーザ入力部420を介して投影図形VLL’に備えられたコントロールポイントp7、p8、p9、p10、p11、p12を操作して投影図形VLL’の位置や大きさ、形状などを変更することができる。例えば、ユーザは、投影図形VLL’の4つの辺PLL、SLL、ALL、ILLがLL脊椎画像上の脊椎体の境界に対応するように投影図形VLL’を調整することができる。ここで、4つの辺の中のSLLは手術対象脊椎体の上端の境界に対応するように、ILLは脊椎体の下端の境界に、PLLは脊椎体の後方(Posterior)の境界に、ALLは脊椎体の前方(Anterior)の境界にそれぞれ対応するように調整する。また、第1の投影線vd1LLは、LL脊椎画像上の棘突起の中心線に揃えられるように調整することができる。この際に、AP脊椎画像と同様に、LL脊椎画像において第1の投影線vd1LLの位置が移動すると、これと対称的な位置に存在する第2の投影線vd2LLの位置も一緒に移動する。
このように、ユーザがAP脊椎画像、LL脊椎画像のように2次元の脊椎画像上に投影された図形の位置、大きさ、形状等を変更すると、図形調整部455は整合部451を介した整合の結果に基づいて投影された図形の変更事項を手術空間の立体図形に同様に反映して、立体図形の位置、大きさ、形状などを変更する。また、2次元の脊椎画像が複数存在する場合、いずれか1つの脊椎画像で投影図形が調整されると、整合の結果に基づいて他の脊椎画像でも当該調整事項が相互に反映されるようにする。例えば、ユーザがAP画像で投影図形を調整すると、LL画像にもAP画像の調整事項が適用される。
一方、図形調整部455は、前述したようにユーザの入力によらず、公知の様々な画像認識アルゴリズムを基に脊椎画像上で既定のランドマークを認識し、立体図形の特定部分が当該ランドマークに揃えられるように立体図形を自動的に調整するように具現することもできる。ランドマークの認識は機械学習、ディープラーニングにより行うこともできる。一方、ランドマークは脊椎体の境界線または脊椎体の境界上の点、棘突起の中心線または棘突起の中心線上の点などが適用され得る。これにより、前述の例においてユーザの入力を介して投影図形が調整されているように、投影図形が自動的に脊椎体の境界及び棘突起の中心に対応するように調整することができる。
このように、2次元の脊椎画像上で投影図形が脊椎体に対応して変更されることにより、手術空間の立体図形が変更され、結果的に立体図形を介して手術空間の患者の脊椎体の位置、大きさ、形状などの近似化を行うことができる。
3Dビュー生成部457は、整合部451による整合の結果を基に立体図形に対する3次元画像を生成し、ユーザ入力部420を介したユーザの操作に応じて3次元画像のビューを切り替えて提供する。生成された3次元画像は表示部430を介して表示される。
3Dビュー生成部457は、図形調整部455によって図形の調整が完了した後に3次元画像を生成することもできるが、図形生成部453によって立体図形が生成された直後に3次元画像をすぐに生成して提供することにより、ユーザが立体図形を調整する過程において変更される事項を三次元ビュー上で視覚的にすぐに確認することもできる。この際に、整合部451による整合関係を基に2次元の脊椎画像上の投影図形に対する変更事項は、3次元画像上の立体図形にリアルタイムで反映して提供することができる。
図7は、本発明の実施形態に係る3Dビュー生成部457によって生成された3次元画像の一例として、立体図形が楕円柱状の場合を想定した。
図7を参照すると、図7の(a)は軸方向の画像を示し、図7の(b)は軸方向からずれた3次元画像を示す。これは3次元画像のビューの一例として、ユーザはユーザ入力部420を介して3次元画像のビュー方向を自由に切り替えて見ることができる。
計画部459は、脊椎画像と立体図形を基に脊椎プロテーゼの長さ、直径、大きさ、挿入位置、挿入方向、挿入角度、挿入経路、挿入深さなどに関する手術計画を立てる。この際に、脊椎プロテーゼとして椎弓根スクリューを適用することができるが、椎弓根スクリューの外にも、脊椎手術時に脊椎に挿入及び固定される様々なプロテーゼを含むことができる。以下、脊椎プロテーゼの一例として、椎弓根スクリューを例に挙げて説明する。
計画部459は、脊椎プロテーゼの具体的な挿入位置や方向、角度、経路などを決定する前に、まず脊椎画像上にその基準となる特徴点や位置を設定することができる。例えば、椎弓根スクリューを挿入する際には、脊椎画像上に脊椎茎の中心に該当する位置に脊椎プロテーゼの挿入基準点としてピボットポイント(pivot point)を設定することができる。この際に、ユーザは、2次元の脊椎画像及び3Dビュー生成部457を介して提供された3次元画像により脊椎体に近似化された立体図形と脊椎茎の形状などを考慮して、ユーザインタフェース部420を介してピボットポイントを直接入力することもでき、または、計画部459が機械学習やディープラーニングのように予め学習された学習モデルを基に脊椎画像上で自動的にピボットポイントを認識するように具現することができる。
計画部459は、前述したピボットポイントのように設定された脊椎プロテーゼの挿入基準となる基準点と、ユーザの入力を基に脊椎プロテーゼに対する手術計画を立てることができる。このために、計画部459は、仮想の脊椎プロテーゼを生成し、表示部430を介して二次元の脊椎画像及び立体図形に対する3次元画像上に重ねて表示して提供し、ユーザはユーザ入力部420を介して仮想の脊椎プロテーゼの挿入位置や角度、方向を調整することができる。この際に、計画部459は、ピボットポイントを中心に回転するように仮想の脊椎プロテーゼの動き範囲を制限することができ、ユーザが脊椎プロテーゼの位置や角度を移動する時にも脊椎プロテーゼが挿入される経路や経路の延長線がピボットポイントを必須的に通ることができる。
計画の際に、ユーザは、AP画像、LL画像のような互いに異なるビューの複数の脊椎画像と、3Dビュー生成部457を介して生成された立体図形に対する3次元画像を用いることができる。ユーザが複数の画像の中のいずれか1つで脊椎プロテーゼの位置や角度などを変更すると、計画部459は整合部451による整合関係を基に他のビューの脊椎画像と3次元画像上で当該変更事項が共通に反映されるように制御する。このように、複数のビュー画像を連動させることにより、ユーザがそれぞれのビュー画像に対して作業を繰り返すことなく手術計画を立てることができ、利便性が向上する。
計画部459は、脊椎体に近似化された立体図形と対比して脊椎プロテーゼの限界位置及び限界角度に関する基準を予め設定しておき、ユーザが当該基準による位置や角度を超えて仮想の脊椎プロテーゼの位置や角度を変更すると、これに対する警告メッセージを提供したり、設定された制限を超えて変更を行うことができないように制限することができる。
図8は、本発明の実施形態に係る計画部459を介した計画の過程において表示部430に提供される画面の一例を示す。
図8を参照すると、画面の左側にはAP脊椎画像a、右側にはLL脊椎画像bが表示され、2つの画像の中央の上端に立体図形に対する3次元画像cが表示されている。投影図形VAP’、VLL’は2次元の脊椎画像a、b上に緑色、赤色など、画像上の脊椎体とは異なる色で重ねて表示されるように具現されることもでき、または計画の過程において投影図形VAP’、VLL’が脊椎体を覆い妨げないように薄い灰色などで彩度や明度を異にして表示することができる。一方、ユーザの選択や設定によって投影図形VAP’、VLL’が脊椎画像上に表示されないように具現することもできる。
図8に示すように、表示部430を介して互いに異なるビューに応じた2次元の脊椎画像及び3次元画像における脊椎プロテーゼの挿入位置や経路等を同時に確認しながら計画が可能であるので、ユーザの利便性が増大し、正確な計画を図ることができる。
ユーザがユーザ入力部420を介して3つの画像a、b、cの中のいずれか1つの画像における仮想の脊椎プロテーゼ601の位置や角度などを変更すると、計画部459は3つの画像を連動して、該当変更事項がすべての画像に適用されるように制御する。この際に、前述したように、計画部459は、設定されたピボットポイントPEAP、PELLを回転中心に適用して、脊椎プロテーゼ601がピボットポイントを中心に回転するようにし、脊椎プロテーゼ601が挿入される経路や経路の延長線がピボットポイントを必ず通ることにより、脊椎プロテーゼ601の挿入位置や動き、挿入経路などの許容範囲を制限することができる。
一方、計画部459は、前述したようにユーザの入力のみに頼らず、様々な画像認識アルゴリズムや機械学習、ディープラーニングによる画像認識により脊椎画像における脊椎内の特定領域や位置を認識し、予め格納する、あるいはユーザによって予め設定された挿入基準に従って仮想の脊椎プロテーゼを自動的に挿入して表示部430を介して提供することができる。
例えば、図8に示すように、椎弓根スクリュー601の挿入位置を決定する際、計画部459は、椎弓根スクリュー601が挿入される経路や経路の延長線がピボットポイントPEAP、PELLを通るように位置すると同時に、既定の挿入角度に従うように椎弓根スクリュー601を自動的に挿入してくれることができる。
一方、椎弓根スクリューの挿入位置と角度の外に椎弓根スクリューの直径、長さなどは、予め格納される、あるいはユーザによって予め設定された基準によって決定されることができる。このために、メモリ部440は、立体図形の形状や大きさ、長さ、手術対象脊椎の位置に対応して、脊椎プロテーゼの適正の直径や長さのような基準仕様または製品を予め格納しておき、調整された立体図形に応じて適切な仮想のプロテーゼの仕様や製品を決定することができる。例えば、立体図形の長さや大きさが大きい場合、仮想のプロテーゼも長さや直径が相対的に大きいプロテーゼが選択されることができる。計画部459は、自動的に挿入された仮想の脊椎プロテーゼの位置、角度、長さ、直径などをユーザが修正する機会を与えることができる。
図9は、本発明の実施形態に係る脊椎手術計画方法の過程を示すフローチャートである。以下、図9を参照して、前述の脊椎手術計画装置400の構成の有機的な動作を説明する。先に説明した実施形態と重複する説明は省略する。
図9を参照すると、本発明の実施形態に係る脊椎手術計画方法は、医用画像撮影装置100を介して患者の2次元の脊椎画像を取得することを前提とする(ステップS10)。この際に、2次元の脊椎画像は、AP画像、LL画像のように互いに異なるビュー方向を有する複数の画像が取得されることができる。
そして、整合部451は、取得した2次元の脊椎画像に対する画像空間と手術空間とを整合して、画像空間上の座標と手術空間上の座標との間の整合関係を算出する(ステップS20)。この際に、先に説明したように、医用画像撮影装置100のキャリブレーションパラメータを基に整合する公知の整合方法によるか、または、本出願人が2019年3月13日付で大韓民国特許庁に出願した特許出願第2019-0028592号「C-armベースの医用画像システム及び2D画像と3D空間の整合方法」に開示された方法を適用して整合することができる。
整合を完了すると、図形生成部453は、手術空間に仮想の立体図形を生成し、整合関係を基に立体図形を2次元の脊椎画像上に投影する(ステップS30)。立体図形は柱状を有することができる。この際に、任意の形状、大きさ、位置に応じて立体図形を生成することもできるが、患者の脊椎体の固有特性や性別、年齢のような患者の特性に応じて、立体図形の大きさ、形状、高さなどの立体図形の属性を定義したライブラリ及び手術対象の脊椎番号などを考慮して、患者に合わせた立体図形を生成することもできる。
図形調整部455は、脊椎画像上に投影された立体図形が脊椎画像上の既定のランドマークに対応するように立体図形の形状、大きさ、高さ、位置などを調整する(ステップS40)。この際に、整合関係に基づいて脊椎画像上に投影された立体図形の形状、大きさ、高さ、位置などを変更することにより、手術空間上の立体図形を変更することができる。これにより、立体図形により患者の脊椎体の形状、大きさ、位置を近似化することができる。
続いて、計画部459は、脊椎画像と脊椎体に近似化された立体図形とを基に脊椎プロテーゼの挿入位置及び経路などを設定する(ステップS50)。この際に、手術空間内の立体図形に対する3次元画像を提供することにより、ユーザが2次元の脊椎画像と共に参照して計画を行うことができるようにして、CT画像を用いるのと類似する効果を得ることができる。
一方、計画部459は、脊椎プロテーゼの具体的な挿入位置及び経路などを設定する前に、まずユーザの入力または公知の画像認識アルゴリズムや学習モデルを基に脊椎プロテーゼの挿入基準となる基準点を設定することができることは上記の通りである。計画部459は、このように設定された基準点、例えばピボットポイントを中心に脊椎プロテーゼが回転するようにするか、または脊椎プロテーゼが挿入される経路や経路の延長線がピボットポイントを通るように挿入される条件を満たすように脊椎プロテーゼの挿入位置及び経路を自動的に設定したり、またはユーザ入力部420を介したユーザの操作時に挿入位置や挿入経路の許容範囲を制限することができる。
また、計画部459は、予め格納しているか、ユーザの設定に応じた挿入基準によって決定された位置及び角度に応じて自動的に仮想の脊椎プロテーゼを挿入して提供することにより、ユーザの利便性を向上させることができる。
以上,説明したように、本発明に係る脊椎手術計画装置400及び方法によれば、計画の過程において患者の脊椎の大きさ、形状等に近似化された立体図形の3次元画像を一緒に提供することにより、CT撮影なしで2次元の脊椎画像に基づいて計画を行うことができる。これにより、患者の放射線露出及びCT画像の整合に伴う手続きの煩雑さを低減できるとともに、正確な計画が可能なので効果的にCT画像を代替することができる。
以上、本発明の実施形態を構成する全ての構成要素が1つに結合又は組み合わせて動作することとして説明したが、本発明は必ずしもこの実施形態に限定されるものではない。すなわち、本発明の目的の範囲内であれば、その全ての構成要素が1つ以上に選択的に結合して動作することができる。さらに、その全ての構成要素がそれぞれ1つの独立したハードウェアで具現することができるが、各構成要素の一部または全部が選択的に組み合わせられ、1つまたは複数のハードウェアで組み合わせられた一部または全部の機能を行うプログラムモジュールを有するコンピュータプログラムとして具現することができる。そのコンピュータプログラムを構成するコード及びコードセグメントは、本発明の技術分野の当業者によって容易に推論され得る。このようなコンピュータプログラムは、コンピュータが読み取り可能な記憶媒体(Computer Readable Media)に格納され、コンピュータによって読み出され実行されることにより、本発明の実施形態を具現することができる。コンピュータプログラムの記憶媒体としては、磁気記録媒体、光記録媒体などを含むことができる。
なお、上記に記載した「含む」、「構成する」または「有する」などの用語は、特に反対の記載がない限り、当該構成要素が内在できることを意味することであるので、他の構成要素を除くことではなく、他の構成要素をさらに含むことができると解釈されるべきである。技術的または科学的用語を含むすべての用語は、別に定義がない限り、本発明が属する技術分野で通常の知識を有する者によって一般に理解されるのと同じ意味を有する。辞典に定義された用語のように一般的に使用される用語は、関連技術の文脈上の意味と一致すると解釈されるべきであり、本発明において明確に定義されない限り、理想的または過度に形式的な意味として解釈されない。
以上の説明は、本発明の技術思想を例示的に説明したものに過ぎず、本発明が属する技術分野において通常の知識を有する者であれば、本発明の本質的な特性から逸脱しない範囲で種々の修正及び変形が可能である。したがって、本発明に開示された実施形態は、本発明の技術思想を限定するものではなく説明するためのものであり、このような実施形態によって本発明の技術思想の範囲が限定されるものではない。本発明の保護範囲は以下の特許請求の範囲によって解釈されるべきであり、それと同等の範囲内にあるすべての技術思想は本発明の権利範囲に含まれるものと解釈されるべきである。

Claims (14)

  1. 医用画像撮影装置を介して患者の二次元の脊椎画像を取得するステップと、
    前記脊椎画像に対する画像空間と患者の脊椎手術が進行される手術空間とを整合して、前記画像空間上の座標と前記手術空間上の座標との間の整合関係を算出するステップと、
    前記手術空間に仮想の立体図形を生成するステップと、
    前記整合関係を基に前記立体図形を前記脊椎画像上に投影するステップと、
    前記立体図形が前記脊椎画像上の既定のランドマークに対応するように前記立体図形を調整するステップと、
    前記脊椎画像と前記立体図形を基に脊椎プロテーゼの挿入位置及び経路を設定するステップと、を含むことを特徴とする脊椎手術計画方法。
  2. 前記立体図形を調整するステップは、前記脊椎画像上に投影された立体図形に対するユーザの入力を基に前記立体図形の形状、大きさ及び位置の中の少なくとも1つを調整することを特徴とする請求項1に記載の脊椎手術計画方法。
  3. 前記脊椎プロテーゼの挿入位置及び経路を設定するステップは、互いに異なるビュー方向にそれぞれ対応する複数の脊椎画像を基に行われることを特徴とする請求項1に記載の脊椎手術計画方法。
  4. 前記互いに異なるビュー方向にそれぞれ対応する複数の脊椎画像は、AP(Anterior-Posterior)画像とLL(Lateral-Lateral)画像とを含むことを特徴とする請求項3に記載の脊椎手術計画方法。
  5. 前記脊椎プロテーゼの挿入位置及び経路を設定するステップは、ユーザ入力部を介したユーザの入力を基に前記脊椎プロテーゼの挿入位置及び経路を設定することを特徴とする請求項1に記載の脊椎手術計画方法。
  6. 前記立体図形を調整するステップは、前記立体図形が前記脊椎画像上に投影されて形成された図形の境界が前記脊椎画像上の脊椎体の境界に対応するように前記立体図形を調整することを特徴とする請求項1に記載の脊椎手術計画方法。
  7. 前記立体図形は柱状であることを特徴とする請求項1に記載の脊椎手術計画方法。
  8. 前記立体図形を調整するステップは、前記柱状の底面の中心を通る前記底面上の第1の軸と垂直をなす前記柱状の側面上の第1の線が前記脊椎画像上の棘突起の中心線に揃えられるように前記立体図形を調整することを特徴とする請求項7に記載の脊椎手術計画方法。
  9. 前記脊椎画像上に前記脊椎プロテーゼの挿入基準となる基準点を設定するステップをさらに含み、
    前記脊椎プロテーゼの挿入位置及び経路を設定するステップは、前記基準点を基に前記脊椎プロテーゼの挿入位置または挿入経路の許容範囲を制限することを特徴とする請求項1に記載の脊椎手術計画方法。
  10. 前記立体図形を生成するステップは、
    前記脊椎画像で脊椎体の位置を検出し、検出された前記脊椎体に対応する位置に前記立体図形を生成することを特徴とする請求項1に記載の脊椎手術計画方法。
  11. 前記立体図形を生成するステップは、
    脊椎体の特性に応じた前記立体図形の大きさ、形状及び高さの中の少なくともいずれか1つの属性を定義したライブラリを基に前記脊椎画像で認識された前記脊椎体の特性に対応する前記立体図形を生成することを特徴とする請求項1に記載の脊椎手術計画方法。
  12. 医用画像撮影装置を介して撮影された患者の二次元の脊椎画像を格納するメモリ部と、
    前記脊椎画像に対する画像空間と患者の脊椎手術が進行される手術空間とを整合して、前記画像空間上の座標と手術空間上の座標との間の整合関係を算出する整合部と、
    前記手術空間に仮想の立体図形を生成し、前記整合関係を基に前記立体図形を前記脊椎画像上に投影する図形生成部と、
    前記立体図形が前記脊椎画像上の既定のランドマークに対応するように前記立体図形を調整する図形調整部と、
    前記脊椎画像と前記立体図を基に脊椎プロテーゼの挿入位置及び経路を設定する計画部と、を含むことを特徴とする脊椎手術計画装置。
  13. 前記脊椎画像と、前記脊椎画像に投影された前記立体図形と、を表示する表示部をさらに含むことを特徴とする請求項12に記載の脊椎手術計画装置。
  14. 前記整合関係を基に前記立体図形に対する3次元画像を生成する3Dビュー生成部をさらに含み、
    前記計画部は、前記整合関係を基に前記脊椎画像と前記三次元画像の中のいずれか1つの画像内の前記脊椎プロテーゼに対する変更事項が相互に反映されるように制御することを特徴とする請求項12に記載の脊椎手術計画装置。
JP2022560938A 2020-04-06 2021-04-01 二次元医用画像ベースの脊椎手術計画装置及び方法 Pending JP2023520602A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020200041732A KR102394901B1 (ko) 2020-04-06 2020-04-06 2차원 의료영상 기반 척추 수술 플래닝 장치 및 방법
KR10-2020-0041732 2020-04-06
PCT/KR2021/004099 WO2021206372A1 (ko) 2020-04-06 2021-04-01 2차원 의료영상 기반 척추 수술 플래닝 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2023520602A true JP2023520602A (ja) 2023-05-17

Family

ID=78023561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022560938A Pending JP2023520602A (ja) 2020-04-06 2021-04-01 二次元医用画像ベースの脊椎手術計画装置及び方法

Country Status (6)

Country Link
US (1) US11666458B2 (ja)
EP (1) EP4134034A4 (ja)
JP (1) JP2023520602A (ja)
KR (1) KR102394901B1 (ja)
CN (1) CN115426967A (ja)
WO (1) WO2021206372A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US20230008222A1 (en) * 2021-07-12 2023-01-12 Nuvasive, Inc. Systems and methods for surgical navigation
KR102612603B1 (ko) 2022-11-02 2023-12-12 큐렉소 주식회사 2d-3d 이미지 정합 방법 및 이를 수행하는 수술용 로봇 시스템

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4423959B2 (ja) * 2003-12-16 2010-03-03 株式会社島津製作所 断層撮影装置
EP1734878B1 (en) * 2004-02-20 2011-10-19 Hector O. Pacheco Method for determining the size of pedicle screws
KR100726022B1 (ko) 2005-10-26 2007-06-12 한양대학교 산학협력단 복수의 2차원 영상을 이용한 3차원 수술공간 계측 시스템및 그 방법
KR100964649B1 (ko) * 2007-10-24 2010-06-22 (주)바텍이우홀딩스 엑스 레이 씨티 촬영 장치에서 중심축 이동에 기인된배율을 보정하는 방법
KR100964644B1 (ko) * 2007-10-24 2010-06-25 (주)바텍이우홀딩스 엑스 레이 씨티 촬영 장치의 중심축 이동을 보정하는 방법
KR101264198B1 (ko) 2012-01-31 2013-05-14 포항공과대학교 산학협력단 삼차원 모델을 이용한 자동 수술 계획 시스템 및 이를 이용한 수술 계획 방법
US11089975B2 (en) * 2017-03-31 2021-08-17 DePuy Synthes Products, Inc. Systems, devices and methods for enhancing operative accuracy using inertial measurement units
KR102367989B1 (ko) 2017-09-08 2022-02-28 삼성디스플레이 주식회사 디스플레이 장치
KR102105974B1 (ko) * 2018-02-09 2020-04-29 고려대학교 산학협력단 의료 영상 시스템
KR102203544B1 (ko) 2019-03-13 2021-01-18 큐렉소 주식회사 C-arm 기반의 의료영상 시스템 및 2D 이미지와 3D 공간의 정합방법

Also Published As

Publication number Publication date
WO2021206372A1 (ko) 2021-10-14
KR20210123912A (ko) 2021-10-14
US11666458B2 (en) 2023-06-06
EP4134034A4 (en) 2024-04-24
CN115426967A (zh) 2022-12-02
EP4134034A1 (en) 2023-02-15
US20230127917A1 (en) 2023-04-27
KR102394901B1 (ko) 2022-05-09

Similar Documents

Publication Publication Date Title
US20220401162A1 (en) Hand controller for robotic surgery system
US11896318B2 (en) Methods and systems for controlling a surgical robot
US11751948B2 (en) Methods and systems for robot-assisted surgery
US10130430B2 (en) No-touch surgical navigation method and system thereof
JP2023520602A (ja) 二次元医用画像ベースの脊椎手術計画装置及び方法
JP2020518315A (ja) 慣性計測装置を使用して手術の正確度を向上させるためのシステム、装置、及び方法
JP7399982B2 (ja) 手術中の3次元可視化
US20200261155A1 (en) Image based robot guidance
US20140171962A1 (en) Registration and navigation using a three-dimensional tracking sensor
JP7351915B2 (ja) ロボット装置のモーションプログラミング
US20220351385A1 (en) Systems and methods for anatomical segmentation
US20220287776A1 (en) Systems and methods for performance of external body wall data and internal depth data-based performance of operations associated with a computer-assisted surgical system
KR102612603B1 (ko) 2d-3d 이미지 정합 방법 및 이를 수행하는 수술용 로봇 시스템
US11751827B2 (en) Method and system for determining the configuration of a medical imaging system
US20200397517A1 (en) Hand controller for robotic surgery system
JP2022526540A (ja) 整形外科的固定制御及び可視化
CN117320655A (zh) 用于机器人辅助手术的装置、方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402