JP7475082B2 - 2d医用画像において物体間の相対的3d位置および向きを決定すること - Google Patents
2d医用画像において物体間の相対的3d位置および向きを決定すること Download PDFInfo
- Publication number
- JP7475082B2 JP7475082B2 JP2022536808A JP2022536808A JP7475082B2 JP 7475082 B2 JP7475082 B2 JP 7475082B2 JP 2022536808 A JP2022536808 A JP 2022536808A JP 2022536808 A JP2022536808 A JP 2022536808A JP 7475082 B2 JP7475082 B2 JP 7475082B2
- Authority
- JP
- Japan
- Prior art keywords
- ray
- image
- drill
- instrument
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 claims description 148
- 238000000034 method Methods 0.000 claims description 114
- 210000003484 anatomy Anatomy 0.000 claims description 62
- 239000007943 implant Substances 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 25
- 238000001356 surgical procedure Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 10
- 210000000988 bone and bone Anatomy 0.000 description 76
- 239000012634 fragment Substances 0.000 description 30
- 238000013519 translation Methods 0.000 description 29
- 230000014616 translation Effects 0.000 description 29
- 210000000689 upper leg Anatomy 0.000 description 27
- 230000004807 localization Effects 0.000 description 23
- 238000005553 drilling Methods 0.000 description 20
- 230000000694 effects Effects 0.000 description 20
- 206010017076 Fracture Diseases 0.000 description 13
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 230000009467 reduction Effects 0.000 description 11
- 230000001537 neural effect Effects 0.000 description 10
- 238000002591 computed tomography Methods 0.000 description 8
- 229910000831 Steel Inorganic materials 0.000 description 7
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 7
- 239000010959 steel Substances 0.000 description 7
- 229910052719 titanium Inorganic materials 0.000 description 7
- 239000010936 titanium Substances 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 230000035515 penetration Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 210000003131 sacroiliac joint Anatomy 0.000 description 5
- 238000010521 absorption reaction Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 210000002436 femur neck Anatomy 0.000 description 4
- 210000003692 ilium Anatomy 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 4
- 230000000399 orthopedic effect Effects 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 210000002303 tibia Anatomy 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 3
- 208000014674 injury Diseases 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 210000004705 lumbosacral region Anatomy 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000008733 trauma Effects 0.000 description 3
- 101100235070 Mus musculus Lgalsl gene Proteins 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 210000000528 lesser trochanter Anatomy 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000002559 palpation Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 210000004872 soft tissue Anatomy 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 210000001364 upper extremity Anatomy 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 206010016454 Femur fracture Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000012356 Product development Methods 0.000 description 1
- 241001227561 Valgus Species 0.000 description 1
- 241000469816 Varus Species 0.000 description 1
- 210000000709 aorta Anatomy 0.000 description 1
- 210000003557 bones of lower extremity Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000002082 fibula Anatomy 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000002758 humerus Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000002324 minimally invasive surgery Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 210000000278 spinal cord Anatomy 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/16—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
- A61B17/17—Guides or aligning means for drills, mills, pins or wires
- A61B17/1703—Guides or aligning means for drills, mills, pins or wires using imaging means, e.g. by X-rays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/16—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
- A61B17/17—Guides or aligning means for drills, mills, pins or wires
- A61B17/1717—Guides or aligning means for drills, mills, pins or wires for applying intramedullary nails or pins
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/16—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
- A61B17/17—Guides or aligning means for drills, mills, pins or wires
- A61B17/1725—Guides or aligning means for drills, mills, pins or wires for applying transverse screws or pins through intramedullary nails or pins
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/16—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
- A61B17/17—Guides or aligning means for drills, mills, pins or wires
- A61B17/1739—Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body
- A61B17/1757—Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body for the spine
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/56—Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
- A61B2017/564—Methods for bone or joint treatment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/252—User interfaces for surgical systems indicating steps of a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
- A61B2090/3764—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10121—Fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
- G06T2207/30012—Spine; Backbone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30052—Implant; Prosthesis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/034—Recognition of patterns in medical or anatomical images of medical instruments
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Theoretical Computer Science (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Medical Informatics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Description
Priesらによるディープモーフィングに関する上で引用されている論文(2018)は、システムが(2D投影画像において)骨のアウトライン/輪郭を検出して輪郭上の点にラベル付けするのを可能にする方法を提案している。例えば大腿骨のセグメンテーションでは、この技術は、2DX線投影画像における輪郭上のどの点が小転子に対応しているか、およびどの点が大腿骨頸部に対応しているかなどを決定することができる。次いで同じ解剖学的構造の3D統計学的形状または外観モデルを考慮して、その仮想投影がX線画像における実際の投影に一致する方法でこのモデルを変形させることができ、故に解剖学的構造の3D再構築が得られ、物体の位置特定および撮像方向の決定が可能になる。他方、撮像方向が既に既知であれば、解剖学的物体の3D再構築をより高い正確性で行うことができる。例えば外科医が特定の方向(例えば、真のAPまたは真のML)でX線画像を取得するように指示されているか、あるいは特定の撮像方向が例えば2018年8月23日に特許出願として出願されたBlauによる発明によるアルゴリズムによって検出されたことにより、撮像方向が既知であってもよい。
-2D投影画像における点が解剖学的物体の3Dモデルに対するその位置および向きが既知である線上の点に対応していること、あるいは
-2D投影画像における点が解剖学的物体の3Dモデルに対するその位置および向きが既知である平面上の点に対応していること
が既知である場合に、あまり具体的でない幾何学的情報がなお有用である場合がある。
2018年11月26日に特許出願として出願されたBlauによる発明において、2DX線画像に基づいて2つの物体を位置特定することができる場合、および2つの物体が物理的3D空間において互いに接触していることが既知である場合に、どのように両方の物体間の相対的3D位置および3D向きを決定することができるかが考察されている。
骨の形状に応じて、1枚の画像のみに基づく3D再構築において残りの曖昧さまたは一致誤差がなお存在する場合がある。これは、画像間でCアームを回転および/または平行移動させることにより、潜在的に異なる視認方向から複数の画像を取得することにより軽減される場合がある。一般に、異なる撮像方向からのさらなる画像がさらに有用であり、かつ撮像方向が異なるほど(例えば、APおよびML画像)、さらなる画像が3D情報の決定の点でさらに有用となる。しかし完全に異なる図に変える(APからMLまたはその逆)代わりに、外科手術中により容易に取得することができる僅かに異なる視認角度のみからの画像を追加することでさえも有益であり得る。
(a)物体Gの点および物体Fの点の相対的3D位置が既知である、あるいは
(b)物体Gの点が物体Fに対するその相対的3D位置および3D向きが既知である物理的3D空間内の線上にある、あるいは
(c)物体Gの点が物体Fに対するその相対的3D位置および3D向きが既知である物理的3D空間内の平面にある
というものであってもよい。
・6.AP.9’’は、6.FP.AP.9’’で表されている焦点を有する9’’X線検出器によるAP画像を指す
・6.AP.12’’は、6.FP.AP.12’’で表されている焦点を有する12’’X線検出器によるAP画像を指す
・6.ML.9’’は、6.FP.ML.9’’で表されている焦点を有する9’’X線検出器によるML画像を指す
・6.ML.12’’は、6.FP.ML.12’’で表されている焦点を有する12’’X線検出器によるML画像を指す。
本発明はアプリオリ較正を必要としない。測定される構造の近くに(それと同様の深さに)位置する既知の物体が画像中に存在する場合、測定はmmで行ってもよい。既知の物体は既知の寸法を有するので、測定値を較正するためにそれを使用することができる。これは、TAD値を決定するためにBaumgaertnerらによって提案された手順と同様である(Baumgaertner MR,Curtin SL,Lindskog DM,Keggi JM:股関節部の転子周囲の骨折の固定の失敗の予想における先端-頂点距離の値(The value of the tip-apex distance in predicting failure of fixation of peritrochanteric fractures of the hip).J Bone Joint Surg Am.1995,77:1058-1064を参照)。
一般に画像の歪みを取り扱う2つの方法が存在し、これらを組み合わせてもよい。
1.歪みが強いことが分かっているX線画像中の領域(例えば、画像の境界)を強調せずに、歪みによってあまり影響を受けていない領域により強調を置く
2.歪みを決定してそれを補償する
7.D:髄内釘の遠位部分
7.C:ネックスクリューのための穴を含む釘の中心部分
7.P:髄内釘の近位部分
7.A:照準装置
a)より早期に行われた外科手術(特定のCアームについて学習させることができる)
b)外科手術前の較正:既知の物体(例えば、釘、k-ワイヤなど)は、画像平面に対して既知の距離においてイメージインテンシファイア/X線検出器上に直接配置することができる。これは、X線検出器のサイズおよび焦点と画像平面との間の距離を決定するために使用することもできる。
c)より早期に取得された画像(外科手術中にアルゴリズムによって学習させることができる)
d)典型的な歪み効果(例えば、典型的なCアーム位置についての典型的なピロー効果、地球磁場)を有するデータベース。本装置は、デジタルX線撮影装置は歪みを生じさせないという知識を使用してもよい。
X線撮像装置は画像の左右反転を可能にし、本発明は外科手術全体を通して画像検出器に取り付けられた較正参照体を使用しないため、治療側(左もしくは右の骨)が既知である場合であってもX線源および受容装置の位置の交換を検出しなくてもよい。ユーザは、左右反転機能が作動されているか否かということに関する情報を提供することを要求される可能性がある。
本システムがX線画像の回転、左右反転および上下反転を決定するのを可能にする方法を提供する。これを使用して、例えば釘が実際に外科医の前方に位置決めされているのと同じように現れるようにX線画像を表示してもよい。
・患者の位置決め(例えば、仰向けになっている)
・Cアームの位置(例えば、イメージインテンシファイアが内側にあり、X線源が外側にある)
・患者の体のどの部分に対して手術が行われるか(例えば、左/右の脚:これは例えば、以前の近位処置、ユーザ入力または釘の包装のスキャンに基づいて既知であってもよい)
Cアームの回転軸の定義のために、図16を参照する。この図では、X線源はXRで表されており、文字Bで表されている回転軸を垂直軸と呼び、文字Dで表されている回転軸をプロペラ軸と呼び、文字Eで表されている回転軸をC軸と呼ぶ。なお、いくつかのCアームモデルの場合、軸Eは軸Bのより近くにあってもよい。軸Dと中心X線ビーム(XBによりラベル付けされている)との交点をCアームの「C」の中心と呼ぶ。Cアームは文字Aによって示されている方向に沿って上下に移動してもよい。Cアームは文字Cによって示されている方向に沿って移動してもよい。この用語は本出願全体を通して使用する。Cアームの「C」の中心からの垂直軸の距離はCアーム間で異なってもよい。
以下の遠位固定処置は長い順行性釘について説明している。それにも関わらず、それは近位に固定される逆行性釘にも適用してもよい。以下の固定処置はその軸がおよそML方向にある穴のために提供されているが、その軸が異なる方向、例えばAP方向にある穴にも適用してもよい。
また標的物体および標的構造は解剖学的なものであってもよい。解剖学的標的構造の例は椎弓根である。器具に対する3D再構築および相対的3D位置および3D向きを考慮して、標的構造および故に標的軌道のために必要な正確性を達成するだけで十分であり得る。
解剖学的構造(例えば、椎弓根などの狭い経路)の特定の部分と整列されるCアームのベアリングを調整すること(平行移動および回転)により、器具(例えば、ドリル、k-ワイヤまたはジャムシディ針あるいはさらにはスクリューなどのインプラント)の先端を特定の解剖学的参照点上に配置してもよい。この工程は、取得された2DX線画像中の参照点を表示することにより本システムによってサポートしてもよく、あるいは代わりとして、外科医による参照点の識別を本システムによって使用してその正確性を高めてもよい。次いで器具を適所に残しながらCアームをC軸の周りで例えば20~30°回転させ(あるいは、プロペラ軸の周りで匹敵する回転)、次いで別のX線画像を取得する。器具が参照点において解剖学的物体の表面に接触するという事実を使用して、器具の曖昧な位置特定によってもたらされる曖昧さを減少させるか、さらには解消してもよい。次いで前の画像に対するCアームの移動を決定してもよく、従って解剖学的物体への視認方向を高い正確性で決定してもよい。これは器具がX線画像間で移動しないことを要件とするため、器具を解剖学的構造に固定することが容易になり得、これはドリルだけでなくジャムシディ針またはk-ワイヤでも行うことができる。
1.術前CTスキャンに基づいて、参照点および参照軌道(すなわち、意図されているドリルでの穴あけまたは挿入軌道)ならびに標的終点を外科手術の前に計画してもよい。これは、Cアームの意図されている撮像方向、例えば真の外側もしくは真のAP、あるいは椎弓根または他の容易に認識可能な目印に沿った計画を含んでもよい。またこの工程1は、本システムによって自動的に、および/またはユーザとの対話により手術中に(術中3D撮像装置を用いて)行ってもよい。
図24は、上記「遠位固定処置のための潜在的な処理ワークフローの例」、「仙腸関節(SI)もしくは椎弓根スクリューの配置のための潜在的な処理ワークフローの例」、および「正確性を高めるための画像位置合わせに基づいて機器と解剖学的構造との間の3D位置および3D向きを決定するための潜在的な処理ワークフローの例」のセクションに示されている手順の全てを網羅する一般的なフローチャートを示す。2つの可能な実行、すなわち上記「遠位固定処置のための潜在的な処理ワークフローの例」および「仙腸関節(SI)もしくは椎弓根スクリューの配置のための潜在的な処理ワークフローの例」のセクションに示されている手順のために適用可能な図25に示されている迅速実行、および上記「正確性を高めるための画像位置合わせに基づいて機器と解剖学的構造との間の3D位置および3D向きを決定するための潜在的な処理ワークフローの例」のセクションに示されている手順のために適用可能な図26に示されている正確性を高めるための実行が存在する。
S11:術前計画(任意)。
S12:3Dモデル全体をロードする。
S13:1つ以上の標的軌道/1つ以上の平面および該当する場合には標的点(例えば解剖学的構造の場合)の術中自動決定。
S21:X線画像を取得する。
S22:例えばC軸の周りでの回転角度(方向を含む)、プロペラ軸の周りでの回転などを与えることにより、標的物体、例えば円形の穴への特別な視認方向(潜在的に釘の位置特定によってサポートされる)、または解剖学的構造への真のAP/ML図(潜在的にDNNによってサポートされる)に達するためにサポートする。
S23:曖昧さが生じた場合、システムは方向を含めずに回転角の値のみを提供する。
S24:視認方向が所望の視認方向に十分に近くない場合、ユーザはシステム指示に従い、S21を継続する。解剖学的構造の対応する3Dモデル(例えば、CT-スキャン、すなわち決定論的なもの)が利用可能である場合、この場合には現在の視認方向および3Dモデルから標的軌道を得ることが可能であり、開口器具の先端が解剖学的構造上に配置されることを分かっているため、所望の視認方向は標的軌道とは異なってもよい。例:開口器具が大腿骨上に配置されており、かつ大腿骨の3Dモデルが利用可能である遠位固定。標的物体を位置特定した後(S33)、本システムは、釘モデルの標的軌道と大腿骨モデルの表面との交点を計算する。解剖学的構造の3Dモデルを用いて、本システムは開口器具先端のために調整指示を与える(S37)。
S31:開口器具の位置決め。
S32:X線画像を取得する。
S33:標的物体/構造の位置特定。
S34:標的軌道が視認方向と十分に整列されている場合、標的点は2DX線画像において直接視認可能である(定められていない器具先端位置のための1つのDoF)。S36に進む。
S35:システムは解剖学的構造(遠位固定部も含む)の3D表面の交点および2DX線画像上に重ね合わせられた標的軌道(定められている器具先端位置のための全てのDoF)を表示する。
S36:開口器具の2D一致。
S37:システムは開口器具の先端調整をサポートするための指示をユーザに与える。
S38:十分な正確性で位置に達しなかった場合、ユーザはシステム指示に従い、S32を継続する。
S41e:必要とされる開口器具の固定。
S411e:開口器具の固定。S44を適用することが意図されている場合、システムは開口器具と全ての特別な視認方向との間の角度が65°未満であることを保証する角度で開口器具を標的物体に固定するためのサポートを提供する。2つの角度値を提供する。ユーザが同じ視認方向から別の画像を取得する場合、開口器具の固定角度をシステムによって確認する。
S412e:Cアームと解剖学的構造との間の相対位置における変化を含まないX線画像を取得する。
S413e:開口器具の侵入深さを決定するための画像差分析。
S414e:解剖学的構造に対する開口器具の3D位置および3D向きを決定する。
S41q:開口器具の固定をしない。ユーザが軌道に照準を合わせるのをサポートしない。
S42:システムは、視認方向と標的軌道との間の25°の角度に達するためにCアーム回転の調整値を計算および表示する。曖昧さが生じた場合、システムは方向を含めずに回転角度の値のみを提供する。
S43:ユーザは表示された調整値に従ってCアームを位置決めし、X線画像を取得する。視認方向がS42からの所望の視認方向に十分に近くない場合、S42に進む。
S44:最終的な開口器具調整指示のために標的物体と開口器具との間の3D位置および3D向きを計算する。
S441e:繰り返しの最適化の場合、開口器具の3D位置特定ならびに現在の画像と前の特別な視認方向との間の開口器具の3D位置および3D向き間の変換マトリックスの計算。
S442e:(i)上記変換マトリックス(S441e)、(ii)現在の開口器具位置と共に解剖学的構造の全ての前の3D向きおよび3D位置、および(iii)現在の解剖学的構造の3D向きおよび3D位置(繰り返しもしくは共同最適化のいずれか)に基づく、解剖学的構造の潜在的に向上した3D向きおよび3D位置。
S441q:繰り返しの最適化の場合、標的物体の位置特定。標的物体の位置特定と開口器具の先端が標的軌道/平面上に位置決めされるというアプリオリ情報とに基づいて、開口器具と標的物体との間の3D位置および3D向きを決定する。443に進む。
S442q:開口器具に対する標的物体の3D向きおよび3D位置の共同最適化。
S443:例えば釘の遠位-近位逸脱を確認および補正できる場合には、アプリオリ情報(標的物体に対する開口器具の先端位置)を確認および補正する。
S444e:解剖学的構造と開口器具との間の3D位置および3D向きの正確性がさらなる向上を必要とする場合、システムは、さらなる特別な視認方向に達するためにCアーム回転のための調整値を計算および表示する。
S445e:ユーザは表示された調整値に従ってCアームを位置決めし、X線画像を取得する。視認方向が所望の視認方向に十分に近くない場合には、S44に進む。
S45:ユーザは、開口器具を標的軌道と整列するために提供されている調整値によって開口器具を移動させる。
S451:標的物体の3Dモデルが標的軌道を提供するので、システムは、標的物体に対する上で決定された器具の3D位置および3D向きから得られた、器具を標的軌道と整列するために開口器具の方向を調整するための角度(方向を含む2つの角度)を提供する。
S452e:開口器具が第1の位置になお固定されている場合(S41e)、ユーザはその先端が標的軌道上に位置するまで開口器具を後退させ、次いでシステム出力に基づいて開口器具を整列し、X線画像を取得する(あるいは、第2の開口器具を使用して標的軌道に照準を合わせる。この場合にはS44に進む)。
S453e:システムは画像を比較する(例えば、画像差分析により)。画像が(標的物体について)局所的に十分に近い場合、S44に進む。
S454:開口器具と標的軌道との整列が十分に近くない場合、ユーザはシステム出力に基づいて開口器具を位置決めし、X線画像を取得し、S44を継続する。
S455:残りの整列指示が十分に小さい値を提供する場合、システムはドリルまでどのくらい離れているかという情報を表示する。ユーザは整列指示に基づいて開口器具を整列してもよく、ユーザが別のX線画像を取得するか否かを決定する。
S46:ドリルでの穴あけ。
S461:ユーザはドリルで穴を開ける。
S462:ユーザがドリル方向またはドリル深さを確認することを望む場合はいつでも、ユーザは新しいX線画像を取得し、S44を継続する。
近位大腿骨の骨折を解剖学的に整復する場合、整復はAPX線画像(例えば、アダムス弓は無傷に見える)および外側画像の両方において正しく見えるとしても、それにも関わらず残りの背側間隙が存在するということが起こり得る。この理由のために、真のML画像はそのような間隙を示す最大確率を有するため、真のMLX線画像を取得することが推奨される場合がある。しかし真のML画像であってもそのような不正確な整復を明らかにしないことがなお起こり得る。
2.外科医はAPX線画像を取得する。
3.本システムは任意に参照として骨折線を検出してもよい。
4.本システムは任意に主要骨折線を近似している線を決定してもよい。
5.外科医はAPX線画像において正しく見えるまで骨折を整復する。
6.外科医はCアームをML位置まで回転させ、X線画像を取得する。
7.本システムは2つの骨断片間の相対的3D位置および3D向きを決定してもよく、このようにして外科医が整復を評価し、かつ潜在的に正しい整復を決定するのをサポートしてもよい。
・その断片は互いに接触している(最も制約的でない種類のアプリオリ情報)
・断片が互いに接触している場合、その位置がいくつかの可能性のうちの1つの中にあることが分かっているだけで十分であってもよく、例えば整復がAPX線画像において正しく見える場合、断片が背側もしくは腹側方向のいずれかにおいて骨折線に沿って接触していると仮定してもよく、より極端なシナリオでは、1つの断片の背側骨折線が別の断片の腹側骨折線に接触していてもよく、次いでアルゴリズムは全てのこれらの可能性を評価し、かつ最良の3D一致を提供するものを選択し得る
・どのように断片が互いに接触しているか(点、線などの1D構造または平面などの2D構造などにおいて)
に関するものであってもよい。
Claims (10)
- コンピュータ支援外科手術においてX線画像を処理するためのシステムであって、前記システムは、処理装置およびコンピュータプログラムを備え、前記コンピュータプログラムが前記処理装置によって実行されるときに、前記システムは、
X線画像を受信することであって、前記X線画像は第1の物体および第2の物体の投影画像であることと、
前記第1の物体を分類し、かつ前記第1の物体の3Dモデルを受信し、前記第1の物体の幾何学的側面を決定し、かつ前記第1の物体の3Dモデルに関して前記幾何学的側面を識別することと、
前記第2の物体を分類し、かつ前記第2の物体の3Dモデルを受信し、前記第2の物体の点を選択し、かつ前記第2の物体の3Dモデルにおいて前記点を識別することであって、前記第2の物体の選択される点は前記第2の物体の遠位先端であることと、
前記第1の物体の3Dモデル、前記第2の物体の3Dモデルおよび前記第2の物体の点と前記第1の物体の幾何学的側面との間の空間的関係に関する知識に基づいて、前記第1の物体と前記第2の物体との間の相対的3D位置および3D向きを決定することと、
を行うようにさせられる、システム。 - 前記第1の物体の幾何学的側面は平面、線および点からなる群からの側面である、請求項1に記載のシステム。
- 前記第2の物体の点を選択することは前記第2の物体の複数の点を選択することを含む、請求項1または2に記載のシステム。
- 前記第1の物体の幾何学的側面は平面または線であり、前記X線画像は、撮像方向が10°~65°の範囲内の角度で前記幾何学的側面に対して傾けられている状態で生成される、請求項1に記載のシステム。
- 前記角度は20°~30°の範囲内にある、請求項4に記載のシステム。
- 前記システムは、
前記第1の物体に対する前記第2の物体の意図されている空間的関係からの前記第2の物体の3D位置および3D向きの逸脱を決定すること
をさらに行うようにさせられる、請求項1~5のいずれか1項に記載のシステム。 - 前記第1の物体は解剖学的構造または第1のインプラントの側面であり、前記第2の物体は解剖学的構造、器具または第2のインプラントの側面である、請求項1~6のいずれか1項に記載のシステム。
- 前記第2の物体の点は前記物体の遠位先端であり、前記遠位先端の3D位置の情報は前記遠位先端と前記第1の物体の表面との接点である、請求項1~7のいずれか1項に記載のシステム。
- 前記システムはユーザに情報を提供するための装置をさらに備え、前記情報はX線画像および処置の工程に関する指示からなる群からの少なくとも1つの情報を含む、請求項1~8のいずれか1項に記載のシステム。
- 前記システムは前記X線画像を生成するためのCアームベースのX線撮像装置をさらに備える、請求項1~9のいずれか1項に記載のシステム。
れか1項に記載のコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19217245.0 | 2019-12-17 | ||
EP19217245.0A EP3839890A1 (en) | 2019-12-17 | 2019-12-17 | Determining relative 3d positions and orientations between objects in 2d medical images |
PCT/EP2020/086503 WO2021122804A1 (en) | 2019-12-17 | 2020-12-16 | Determining relative 3d positions and orientations between objects in 2d medical images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023506511A JP2023506511A (ja) | 2023-02-16 |
JP7475082B2 true JP7475082B2 (ja) | 2024-04-26 |
Family
ID=68944369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022536808A Active JP7475082B2 (ja) | 2019-12-17 | 2020-12-16 | 2d医用画像において物体間の相対的3d位置および向きを決定すること |
Country Status (7)
Country | Link |
---|---|
US (2) | US20220398776A1 (ja) |
EP (1) | EP3839890A1 (ja) |
JP (1) | JP7475082B2 (ja) |
CN (1) | CN114846517A (ja) |
AU (1) | AU2020410356B2 (ja) |
CA (1) | CA3160515A1 (ja) |
WO (1) | WO2021122804A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
LU101007B1 (en) * | 2018-11-26 | 2020-05-26 | Metamorphosis Gmbh | Artificial-intelligence based reduction support |
CN113780282B (zh) * | 2021-09-15 | 2024-03-26 | 上海联影医疗科技股份有限公司 | 等中心位置确定方法、装置、计算机设备和可读存储介质 |
CN118056223A (zh) * | 2021-09-29 | 2024-05-17 | 博医来股份公司 | 自动聚焦 |
CN113888620A (zh) * | 2021-09-29 | 2022-01-04 | 武汉联影智融医疗科技有限公司 | 骨钉标记点提取方法、装置、处理设备和存储介质 |
WO2023110126A1 (en) * | 2021-12-17 | 2023-06-22 | Metamorphosis Gmbh | Systems and methods for autonomous self-calibrating surgical robot |
CN114782624B (zh) * | 2022-04-07 | 2023-08-25 | 重庆大学 | 一种3d图像投影融合方法、装置、计算机设备和存储介质 |
EP4296949B1 (en) | 2022-06-21 | 2024-04-10 | metamorphosis GmbH | System and methods to achieve redundancy and diversification in computer assisted and robotic surgery in order to achieve maximum robustness and safety |
EP4296940A1 (en) | 2022-06-21 | 2023-12-27 | metamorphosis GmbH | Systems and methods for effortless and reliable 3d navigation for musculoskeletal surgery based on single 2d x-ray images |
EP4375929A1 (en) * | 2022-11-25 | 2024-05-29 | metamorphosis GmbH | Systems and methods for registration of coordinate systems based on 2d x-ray imaging and augmented reality device |
CN116712171B (zh) * | 2023-08-11 | 2023-11-03 | 北京维卓致远医疗科技发展有限责任公司 | 一种粗隆间骨折导航方法、设备及可存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120106819A1 (en) | 2009-04-25 | 2012-05-03 | Siemens Aktiengesellschaft | method and a system for assessing the relative pose of an implant and a bone of a creature |
US20150216614A1 (en) | 2012-05-23 | 2015-08-06 | Stryker European Holdings I, Llc | Entry portal navigation |
WO2019077388A1 (en) | 2017-10-16 | 2019-04-25 | Stryker European Holdings I, Llc | DEVICE FOR DETERMINING THE ANGLE OF ANTVERSION |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103002819B (zh) | 2010-07-16 | 2015-05-13 | 史塞克创伤有限责任公司 | 外科手术瞄准系统和方法 |
EP2801320B1 (en) | 2013-05-08 | 2018-06-20 | Stryker European Holdings I, LLC | C-arm adjustment |
-
2019
- 2019-12-17 EP EP19217245.0A patent/EP3839890A1/en active Pending
-
2020
- 2020-12-16 JP JP2022536808A patent/JP7475082B2/ja active Active
- 2020-12-16 AU AU2020410356A patent/AU2020410356B2/en active Active
- 2020-12-16 WO PCT/EP2020/086503 patent/WO2021122804A1/en active Application Filing
- 2020-12-16 US US17/757,304 patent/US20220398776A1/en active Pending
- 2020-12-16 CA CA3160515A patent/CA3160515A1/en active Pending
- 2020-12-16 CN CN202080087920.5A patent/CN114846517A/zh active Pending
-
2021
- 2021-04-26 US US17/302,149 patent/US20210248779A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120106819A1 (en) | 2009-04-25 | 2012-05-03 | Siemens Aktiengesellschaft | method and a system for assessing the relative pose of an implant and a bone of a creature |
US20150216614A1 (en) | 2012-05-23 | 2015-08-06 | Stryker European Holdings I, Llc | Entry portal navigation |
WO2019077388A1 (en) | 2017-10-16 | 2019-04-25 | Stryker European Holdings I, Llc | DEVICE FOR DETERMINING THE ANGLE OF ANTVERSION |
Non-Patent Citations (1)
Title |
---|
XIAO DONG ET AL,Automatic Extraction of Proximal Femur Contours from Calibrated X-Ray Images Using 3D Statistical Models,Medical Imagingand augmented Reality ,ドイツ,Springer,2008年08月01日,p421-429 |
Also Published As
Publication number | Publication date |
---|---|
JP2023506511A (ja) | 2023-02-16 |
AU2020410356A1 (en) | 2022-05-26 |
EP3839890A1 (en) | 2021-06-23 |
AU2020410356B2 (en) | 2023-07-20 |
CA3160515A1 (en) | 2021-06-24 |
CN114846517A (zh) | 2022-08-02 |
US20220398776A1 (en) | 2022-12-15 |
US20210248779A1 (en) | 2021-08-12 |
WO2021122804A1 (en) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7475082B2 (ja) | 2d医用画像において物体間の相対的3d位置および向きを決定すること | |
JP7391399B2 (ja) | 医用画像中の物体の相対位置の人工知能に基づく決定 | |
US20230255691A1 (en) | Adaptive Positioning Technology | |
EP4092624A1 (en) | Near-real-time continual 3d registration of objects in 2d x-ray images | |
US20240054663A1 (en) | Artificial-intelligence-based registration of x-ray images | |
US20240005551A1 (en) | Artificial-intelligence-based detection of invisible anatomical structures in 2d x-ray images | |
US20240099775A1 (en) | Artificial-intelligence-based determination of implantation curve | |
EP4296949B1 (en) | System and methods to achieve redundancy and diversification in computer assisted and robotic surgery in order to achieve maximum robustness and safety | |
JP2024521728A (ja) | 2d x線画像内の物体の準リアルタイムの連続的3d位置合わせ | |
EP4296940A1 (en) | Systems and methods for effortless and reliable 3d navigation for musculoskeletal surgery based on single 2d x-ray images | |
Junejo et al. | X-ray-based machine vision system for distal locking of intramedullary nails | |
WO2023110124A1 (en) | Precise 3d-navigation based on imaging direction determination of single intraoperative 2d x-ray images | |
WO2023110126A1 (en) | Systems and methods for autonomous self-calibrating surgical robot | |
AU2021479170A1 (en) | Systems and methods for autonomous self-calibrating surgical robot | |
WO2022259017A1 (en) | Method and device for reproducing position and orientation of (long) bone fragments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240409 |