JP2020527380A - 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション - Google Patents
蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション Download PDFInfo
- Publication number
- JP2020527380A JP2020527380A JP2019571331A JP2019571331A JP2020527380A JP 2020527380 A JP2020527380 A JP 2020527380A JP 2019571331 A JP2019571331 A JP 2019571331A JP 2019571331 A JP2019571331 A JP 2019571331A JP 2020527380 A JP2020527380 A JP 2020527380A
- Authority
- JP
- Japan
- Prior art keywords
- motion sensor
- image
- virtual
- body part
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002594 fluoroscopy Methods 0.000 title description 21
- 238000000034 method Methods 0.000 claims abstract description 199
- 230000033001 locomotion Effects 0.000 claims abstract description 179
- 239000007943 implant Substances 0.000 claims description 151
- 238000003384 imaging method Methods 0.000 claims description 66
- 230000008569 process Effects 0.000 claims description 53
- 238000001356 surgical procedure Methods 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 34
- 238000005259 measurement Methods 0.000 claims description 20
- 230000008859 change Effects 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 12
- 230000000399 orthopedic effect Effects 0.000 claims description 10
- 230000001133 acceleration Effects 0.000 claims description 7
- 239000003826 tablet Substances 0.000 claims description 7
- 210000002615 epidermis Anatomy 0.000 claims description 4
- 239000003990 capacitor Substances 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims 2
- 230000000875 corresponding effect Effects 0.000 claims 1
- 230000002349 favourable effect Effects 0.000 claims 1
- 210000000988 bone and bone Anatomy 0.000 description 91
- 210000003484 anatomy Anatomy 0.000 description 58
- 210000000689 upper leg Anatomy 0.000 description 54
- 210000004197 pelvis Anatomy 0.000 description 48
- 238000010586 diagram Methods 0.000 description 38
- 210000000845 cartilage Anatomy 0.000 description 30
- 239000011324 bead Substances 0.000 description 26
- 210000003041 ligament Anatomy 0.000 description 25
- 238000005457 optimization Methods 0.000 description 21
- 230000005855 radiation Effects 0.000 description 18
- 238000001514 detection method Methods 0.000 description 15
- 230000036544 posture Effects 0.000 description 15
- 230000009466 transformation Effects 0.000 description 13
- 210000001624 hip Anatomy 0.000 description 12
- 210000003127 knee Anatomy 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 12
- 238000002601 radiography Methods 0.000 description 12
- 210000002414 leg Anatomy 0.000 description 11
- 210000004872 soft tissue Anatomy 0.000 description 11
- 230000003068 static effect Effects 0.000 description 11
- 238000004513 sizing Methods 0.000 description 10
- 210000002303 tibia Anatomy 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000004088 simulation Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 238000002591 computed tomography Methods 0.000 description 7
- 238000011882 arthroplasty Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 210000004394 hip joint Anatomy 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 210000002436 femur neck Anatomy 0.000 description 5
- 210000001503 joint Anatomy 0.000 description 5
- 238000002595 magnetic resonance imaging Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 230000014616 translation Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 210000004439 collateral ligament Anatomy 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 210000000588 acetabulum Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000002513 implantation Methods 0.000 description 3
- 210000000629 knee joint Anatomy 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000001575 pathological effect Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 210000003038 endothelium Anatomy 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000010561 standard procedure Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001580947 Adscita statices Species 0.000 description 1
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 208000008924 Femoral Fractures Diseases 0.000 description 1
- 208000003947 Knee Osteoarthritis Diseases 0.000 description 1
- 241001227561 Valgus Species 0.000 description 1
- 241000469816 Varus Species 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 238000002266 amputation Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- ACGUYXCXAPNIKK-UHFFFAOYSA-N hexachlorophene Chemical compound OC1=C(Cl)C=C(Cl)C(Cl)=C1CC1=C(O)C(Cl)=CC(Cl)=C1Cl ACGUYXCXAPNIKK-UHFFFAOYSA-N 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000037231 joint health Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 229920002401 polyacrylamide Polymers 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 230000002062 proliferating effect Effects 0.000 description 1
- 238000012079 reconstructive surgical procedure Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000002271 resection Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 210000001694 thigh bone Anatomy 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1127—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/486—Diagnostic techniques involving generating temporal series of image data
- A61B6/487—Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/505—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5235—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
- A61B6/5241—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT combining overlapping images of the same imaging modality, e.g. by stitching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
- A61B2034/104—Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2560/00—Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
- A61B2560/02—Operational features
- A61B2560/0223—Operational features of calibration, e.g. protocols for calibrating sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/04—Positioning of patients; Tiltable beds or the like
- A61B6/0492—Positioning of patients; Tiltable beds or the like using markers or indicia for aiding patient positioning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/58—Testing, adjusting or calibrating thereof
- A61B6/582—Calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physiology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Prostheses (AREA)
- Image Generation (AREA)
Abstract
Description
本出願は、2017年6月19日に出願された、「Surgical Navigation of the Hip using Fluoroscopy and Tracking Sensors」と表題を付けられた、米国仮特許出願第62/521,582号の利益を主張し、2017年10月23日に出願された、「Surgical Navigation of the Hip using Fluoroscopy and Tracking Sensors」と表題を付けられた、米国仮特許出願第62/575,905号の利益を主張し、2018年1月15日に出願された、「Surgical Navigation of the Hip using Fluoroscopy and Tracking Sensors」と表題を付けられた、米国仮特許出願第62/617,383号の利益を主張するものであり、それらの米国仮特許出願の各々の開示は、参照により本明細書に組み込まれている。
例示的な構成の例示的なステップは、仮想外科手術計画立案のために、患者関節のイメージング、および、3Dモデルの創出を実行するステップを含み得る。X線写真、CT、および/またはMRIなどの静的イメージングモダリティを利用して、患者解剖学的モデルを創出する、従前のイメージング方法論とは別に、例示的な本開示は、患者骨および関節動きを創出するための追加的な技法を組み込み得る。1つの例示的な実施形態において、1つまたは複数のX線写真画像が、ランドマーキングおよび測定のための3D患者固有解剖学的モデルを創出するために使用され得る。同じ時間において、1つまたは複数の追跡センサが、関節動きデータを取得するために、患者に固定され、捕捉される画像と連関して使用され得る。このことは、本明細書の後で、より詳細に概説される。別の例示的な実施形態において、センサが利用可能でないならば、X線写真または蛍光透視法が、複数個の活動の間に患者解剖学的構造をイメージングするために使用され得る。活動の記録される画像は、キネマティックデータと結合される3D患者モデルを作り上げるために利用され得るものであり、それらのモデルは、次いで、ランドマーキング、ならびに、動的および/または静的外科手術計画立案のために使用され得る。別の例示的な実施形態において、超音波が、ランドマーキングおよび測定のための患者の骨モデルを創出するために使用され得る。
複数個のX線写真画像からの解剖学的モデルの、3D再構築または非剛体レジストレーション(図6において示される)は、患者関節を理解することにおいて重要な役割を果たす。しかしながら、マルチビューX線写真画像からの既存の3D再構築方法においての中心的な問題は、後に続く制約にあり、X線写真画像は、画像対の相対的な位置および向きを推定することについて較正の正確性を改善するために、較正目標としての異なるタイプのマーカまたは装具を伴って撮影される。しかしながら、そのような較正手法の重大な制限は、その手法は、特定の較正目標を含むステレオ放射線写真画像を取り扱う能力があるのみであるということである。上記の問題点に潜在的に対処するために、較正目標に対する必要性を伴わない実践的な方法が、異なるビューにおいての同じ1つの物体または複数の物体のX線写真画像からの特徴対応に基づいてエピポーラ線を推定するために開示される。
この例示的な実施形態において、患者は、センサの回転および/または位置を出力する、1つまたは複数の、加速度計、ジャイロスコープ、および/または磁気計を備える、1つまたは複数の、IMUなどの動き検知ユニットを着用し得る。センサは、このデータをワイヤレスで、処理デバイス(電話、タブレット、PC、または類似するもの)に流し得る。X線写真が、次いで捕捉され得るものであり、その場合、各々のX線写真画像は、少なくとも1つのIMUセンサ、および、患者解剖学的構造の一部分を内包する。これらのセンサは、ラップ、またはフレキシブルバンド、または、制限なしに接着剤を含む任意の他の取り付け手段を使用して、外部に固定され得る。イメージングの間、センサおよび骨は、捕捉され、複数個の画像内で可視である。画像シーケンスの較正が、次いで、IMUボード設計上の知られている点に対応する、イメージングされるIMUセンサ上の点を索出することにより実行され得る。対応する点および領域の決定は、自動的に実行され得る。画像内のこれらの点は、図13において示されるように、1つまたは複数のX線写真画像内で、および、回路ボード上で明瞭に識別可能であり得る、抵抗器、コンデンサ、チップ、配線、または、任意の他の特徴などの、回路ボード上の構成要素に対応し得る。較正のためにセンサを使用して、骨は、本明細書において概説されるX線写真再構築方法、または、物体再構築および非剛体レジストレーションにおいての当業者には馴染みのあるものであり得る任意の他の方法を使用して再構築され得る。再構築された骨表面は、画像内のレジストレーションされたセンサとともに、骨のX線写真再構築、および、再構築のために使用され、かくして、センサを骨に関係付ける情報を提供する、同じ画像に対するセンサのレジストレーションによって、3D空間内でレジストレーションされている、少なくとも1つの骨およびセンサからなる、動き捕捉セッションを初期化するために使用され得る。この相対的な情報を使用して、センサデータは、今や、直接的に骨データに関係付けられ得る。この手立てで、静的X線写真画像が、センサベースの動き捕捉システムを初期化するために使用され、3D関節の動的情報を捕捉することにおいて使用され得る。この例示的なプロセスは、図14において例解される。この例示的なプロセスにおいて、X線写真およびセンサデータは、動的イメージングデータを創出するために一体で使用され得る。このデータは、本明細書において概説されるような蛍光透視法動的データと類似する手立てで利用され得る。動き捕捉セッションが初期化される後、関節動き活動が実行され得る。各々の活動の間、各々のセンサからの向きデータが、処理デバイスに伝えられ、記録される。処理デバイスは、骨モデルの、センサデータを使用して決定されるそれらの骨モデルのそれぞれの位置においての、更新される3Dレンダリングなどの、実行されている動きの何らかの視覚的指示を提供し得る。ここでは、動的データは、少なくとも、骨モデル、センサモデル、それらの相対的な位置および向き、ならびに、少なくとも1つの活動の間の骨の動きに関係するタイムスタンプされるデータ(クォータニオン、剛体変換、または、センサ能力により定められるような任意の他のもの)を包含する。
再構築の総体的な構造は、以下の、図15において示されるような4つの部分のうちの1つまたは複数を含み得る:(A)蛍光透視画像から特徴を抽出する画像処理、(B)k近傍法(KNN)およびサポートベクターマシン(SVM)を一体化するハイブリッド分類器(他の機械学習技法を使用して、訓練し、画像を分類し得る)を使用して、3Dモデルの初期姿勢を推定する初期化、(c)2D X線写真蛍光透視法と、再構築される3D表面メッシュモデルとの間の類似性尺度を最大化することにより、3Dモデルの最適な姿勢および形状を決定する最適化(類似性尺度は、エッジスコア、領域スコア、均質性スコア、および多体レジストレーションスコアを含む、新規のエネルギー関数として設計される)、ならびに、(D)カーネル主成分分析(KPCA)という名前の非線形統計的形状モデルによる3D表面メッシュモデルの訓練データセットを表す3D形状分析。
蛍光透視法は画像歪みが起こりやすいので、画像データを分析するより前に、この歪みを補正することが望ましくあり得る。較正目標を使用して、この歪みは、推定され、後続の画像から除去され得る。較正処置においてのステップは、何らかの2D画像の幾何学的歪みを推定するステップを含み得る。金属ビードの知られている矩形グリッドの画像を撮影することにより、4つのビードにより境界設定される、各々の小さい正方形サブ画像に対する2D空間的変換が推定され得る。幾何学的歪み除去においての標準技法を使用して、局所的双線形モデルが、空間的マッピング、および、グレーレベル補間をモデリングするために使用され得る。2D歪みが除去されてしまうと、実効的な源対画像平面距離(焦点長)が、平面の間の知られている変位によって、2平面較正グリッドにより計算され得る。図16は、幾何学的歪み除去の前および後の、幾何学的較正グリッドの蛍光透視画像を例解する。左画像内のビードの画像位置を、右においての規則的に隔置されるグリッド場所に変換する、4つのグリッド点の、各々のセットに対する双線形変換が計算され得る。この補正は、処置の間に獲得される各々の蛍光透視画像に適用され得る。歪み補正は、平面状X線写真画像に対して要されないことがある。
初期化が、平均モデルの初期姿勢を決定するために実行され得る。初期化は、k近傍法およびサポートベクターマシンを組み合わせるハイブリッド分類器に基づいて実行され得る。他の選択肢は、モデルを手作業で初期化すること、または、CNNもしくは類似する深層学習構造などの他の機械学習フレームワークを利用して、訓練し、画像から姿勢を分類することを含み得る。初期化ステップの出力は、テンプレートモデル、および、蛍光透視法画像の少なくとも1つのフレームにおいて画像平面に相対的なモデルの適切な姿勢を含み得る。
最適化は、図17において示されるように、単平面蛍光透視X線写真画像のシーケンスから、3Dモデルの形状および姿勢パラメータを決定することを含み得る。最適化は、表1において示されるように、エッジ、領域、均質性、および多体レジストレーションスコアを組み合わせて、3Dモデルと2D X線写真画像との間の類似性を測定する、新規のエネルギー関数に基づくものであり得る。ハイブリッドエネルギー関数は、時間がかかるDRR生成も、エラーが起こりやすい2Dセグメンテーションも要さない。
3Dモデルは、次いで、プレ画像近似により再構築され得るものであり、なぜならば、入力空間点と特徴空間点との間のマップは、必ずしも知られていないからである。対応するテスト点のプレ画像の再構築は、入力空間内の距離制約に基づくものであり得る。このことは、図18において示されるように、入力空間距離と特徴空間距離との間の関係性を確立することにより達成され得る。
A.静的外科手術計画立案
本明細書において開示される例示的なシステムの構成の任意のものにおいて、関連性のある外科手術ランドマークが、手作業で、および/または自動的に算出され得るものであり(図19を確認されたい)、その場合、これらの算出される外科手術ランドマークは、インプラント配置を測定するための座標系を確立するために使用され得る。
外科手術計画立案プログラムは、股関節に対して先に詳細に説明されたが、さらには、制限なしに、膝、股関節、足首、肘、肩、または類似するものなどの、関節形成術に対する候補である、他の関節の任意のもののために使用され得る。多くの関節、具体的には膝に対して、テンプレーティングの間に静的幾何学的形状およびランドマークを分析することのみではなく、さらには、関節の軟組織と結合される動的情報が重要であり得る。仮想テンプレーティングプログラムは、手術前イメージングの間に捕捉されるセンサ動きデータおよび3Dデータを利用して、最適なサイズ設定および位置設定を決定する。
3D対2Dレジストレーションにおいて、目指すところは、3D表面を、単平面蛍光透視シーケンスまたはX線写真画像セットの、各々のフレームに対してアライメントすることである(図24を確認されたい)。3Dモデルは、手術前イメージングから生成される患者解剖学的構造に対する表面メッシュモデルである。シーケンス内のすべてのフレームに対する3Dモデルの姿勢が、エネルギー関数の最適化により決定され得る。エネルギー関数は、エッジスコア項、強度スコア項、ミスアライメント項、および衝突検出項からなるものであり得る。エッジスコア項および強度スコア項は、どのように良好に3Dモデルの投影が、それぞれ、エッジおよび強度に関して蛍光透視画像にフィットするかを示す。ミスアライメント項および衝突検出項は、同じフレーム内の近隣の骨の間のミスアライメントおよび衝突にペナルティを科す。他の要因、例えるなら、複数個の解剖学的構造(例えば骨盤および大腿骨)の相対的な姿勢、知られているハードウェア、または、フィッティング最適化に関連性のある任意の他の要因が、先験的情報を利用するためにエネルギー関数に導入され得る。
手術中処置は、患者に、手術中イメージングに対する準備をさせることによって始まり得る。イメージングシステムは、X線写真または蛍光透視法などの放射線写真画像を生み出し得る。
手術中画像は、ワイヤレス(Blue tooth(登録商標)またはWi-Fiデバイス)、画像保管通信システム(PACS: picture archiving and communication system)による転送、有線、または、セキュアなUSB記憶デバイスなどのポータブルデバイスによるリモート転送を含むが、それらに制限されない、異なる方法を使用して、イメージングデバイスから、再構築およびレジストレーションソフトウェアを実行する、本明細書において開示される例示的なシステムに転送され得る。
本開示によって使用される追跡デバイス/センサ(例えば、IMU)の向きは、放射線不透過性特徴部を含み得る追跡デバイスと関連付けられるレジストレーション目標(すなわち、画像目標)を使用して、放射線写真法画像から復元/洞察され得る。レジストレーション目標上の放射線不透過性特徴部の構成は、本明細書において説明されるように、外科手術ガイダンスソフトウェアに知られているものであり得るものであり、そのことは、ソフトウェアが、放射線写真法画像がソフトウェアにより分析されるときに、フィデューシャルマーカのみからレジストレーション目標の3D向きを計算することを可能とする。
本開示による例示的な画像目標は、サイズ設定が、過度に面倒であることなく、すべての予期されるイメージングビューにおいて可視であるために適切であるように寸法設定され得る(図34を確認されたい)。この寸法設定は、制限なしに、潜在的な患者体の関節の任意のものなどの、関心の体領域に対する、シミュレートされるX線写真および蛍光透視画像に加えて、代表的な集団に関して実行される1つまたは複数の分析の結果であり得る。
追跡デバイス/センサ(例えば、およびIMU)および患者解剖学的構造の向きは、両方が、放射線写真画像空間に変換され、一体でレジストレーションされ得る。このプロセスは、画像平面に対して患者解剖学的構造をレジストレーションするための第1の3D対2Dレジストレーションステップを必然として伴い得る。次いで、基準アセンブリ(画像目標、基準片、および追跡デバイス/センサ)をアライメントするための第2の3D対2Dレジストレーションステップ。レジストレーションが完了されると、解剖学的構造に対する追跡デバイスの相対的な場所および向きが、知られている様態になる。この点において、追跡デバイスは、患者の骨セグメントを追跡するために使用され得る。このステップは、図42および図43において概説される。
大腿骨:TI Femur→T1F x TI F
脛骨:TI Pelvis→T2F x TI P
本開示によれば、例示的な患者解剖学的マッパ(PAM)は、患者の解剖学的構造上の1つの特定の向きおよび位置にフィットするように製造される患者固有器具類を備える。PAMの幾何学的形状は、手術前イメージングなどの、先に取得されたイメージングから創出される、患者の骨の仮想3Dモデルから創出され得る。PAMは、追跡デバイス/センサ、または、追跡デバイス/センサを保持するための基準片の取り付けを手助けするように設計される、1つまたは複数のロッキング特徴部を含み得る。PAMのさらなるロッキング特徴部は、患者固有であり、(患者骨を相手になどで)患者解剖学的構造と、唯一無二の位置および向きにおいて対になるように設計される。患者固有ロッキング特徴部を、患者解剖学的構造の正しい部位/場所とマッチングするとき、取り付けられる追跡デバイス/センサの向きおよび位置/場所は、解剖学的構造に相対的に知られているべきである。
本開示によれば、前述の追跡デバイス/センサ(例えば、IMU)は、股関節全置換術処置などの外科手術ガイダンスの一部として利用され得る。例示的な形式において、外科医は、切開を為し、大腿骨頭切除を実行し、寛骨臼カップを露出させることなどの、股関節全置換術の典型的な外科手術処置を継続することができる。外科医は、追跡デバイスのうちの1つを(骨盤に取り付くための)骨盤固定デバイスに取り付け、別の追跡デバイスを、制限なしに、ドリル、カップインパクタ、ラスプハンドル、切断ガイド、または、任意の他の器具を含む、ガイドされることになる外科手術器具に取り付けることができる。追跡デバイスは、外科手術ナビゲーションソフトウェアを実行する処理デバイス(例えば、コンピュータ、専用化された機械、タブレット、その他)に、向きおよび/または並進を指し示すデータを継続的に送出するように構成され得る。追跡デバイスの間の相対的な向きは、インクリネーション/デクリネーション、および外転/内転角度、または、望ましくあり得る任意の他の値として表され得るものであり、制限なしに、コンピュータモニタまたは外科手術ナビゲーションディスプレイなどのディスプレイ上で表示され得る。外科医は、寛骨臼表面再建、試行配置の間の寛骨臼カップ嵌入、および、最終的な整形外科インプラントの実際の配置の間の寛骨臼カップ嵌入、および、患者解剖学的構造上の寛骨臼カップの向きを検証することのような例示的な処置のために、追跡デバイスを使用して、1つまたは複数の外科手術器具の向きを知り得る。
最終的または試行の、1つまたは複数の構成要素が、配置された間または後、放射線写真画像が撮影され得る。画像は、画像平面に対する構成要素および解剖学的構造またはランドマークの3D対2Dレジストレーションによって、解剖学的構造に相対的な試行向きおよび位置を検出するために使用され得る。使用される外科手術計画立案に依存して、このステップの2つの構成が存し得る。手術前再構築が患者に対して利用可能でないならば、第1のステップが、先に獲得された手術中画像によって検証画像を較正するために、および、検証画像に相対的な患者3D座標系の位置を算出するために着手され得る。このプロセスは、本明細書の後で詳細に説明されるようなマルチビュー較正および手術中ランドマーキングと同一であり得る。
現在のインプラント群およびサイズの知識によって、インプラントの3D位置が、本明細書において論考されるような3D対2D画像レジストレーション技法を使用して計算され得る。例として、3D対2D画像レジストレーションは、レジストレーションされることになる形状としてインプラント幾何学的形状を使用することにより、本出願人のセクションIII解剖学的構造レジストレーションにおいて説明されたように遂行され得る。追加的なメトリックが、インプラントの推定される位置、およびインプラント制約(例えば、大腿骨解剖学的構造およびカップに相対的な大腿骨ステムの姿勢を制約する、解剖学的構造および大腿骨ステムに相対的なカップの姿勢を制約する)の因をなすように、スコアリング関数に追加され得る。
図49において描写されるように、インプラント向きは、対応する整形外科インプラントCADモデルなしで、外科手術ナビゲーションシステムにより追跡および決定され得る。例示的な形式において、整形外科インプラント位置設定後の患者解剖学的構造の放射線写真画像が撮影され得る。これらの画像は、ソフトウェアが、画像内で描写される物体のエッジを自動的に検出し、画像の中のテクスチャを使用して物体の間で区別して、互いに相対的な、画像の中の物体の相対的な位置を決定することを可能とするようにエンハンスされ得る。同じように、追跡デバイスからのデータが、整形外科インプラント(大腿骨ステムまたは寛骨臼カップなど)の相対的な位置を決定するために、放射線写真画像からの物体検出とともに、同時的に利用され得る。2D画像からのこの相対的な位置データは、次いで、本出願人のセクションIII解剖学的構造レジストレーションにおいて説明されたように、3D対2D画像レジストレーションによって3D解剖学的モデルに対してレジストレーションされ得る。3Dモデルとのレジストレーション後、整形外科インプラント向きが確知され得る。
マルチビュー手術中イメージングが、手術前イメージングが捕捉されないならば要され得るが、3D座標系または解剖学的モデルが、構成要素配置の一助となることを所望される。手術中画像は、(先に論考されたように)患者解剖学的構造および画像目標の両方を捕捉するために獲得され得る。複数の画像が、手術中に、制限なしにX線写真または蛍光透視法イメージングを含む、従来イメージングモダリティを使用して獲得され得る。例として、骨盤に対して、2つ以上の画像のセット(AP、ジュデットRPO、ジュデットLPO)が獲得され得るものであり、その場合、画像の編集物は、好ましくは、寛骨臼構成要素の配置のために、すべての必要な外科手術ランドマークを内包する。近位大腿骨解剖学的構造に対して、2つ以上の画像のセット(APおよび外側)が獲得され得るものであり、その場合、画像の編集物は、好ましくは、大腿骨ステムの配置のために、近位大腿骨および髄内管の両方の、すべての必要な外科手術ランドマークを内包する。
マルチビュー較正は、例示的な形式において、および、本開示によれば、画像撮影パラメータを抽出して、画像の「n」セットから3Dシーンを再構築することのプロセスを含み得る。この情報は、次いで、3Dランドマークのセットを再構築するために利用され得る。ステレオカメラ較正の例示的なプロセスが、図52において概説される。入力画像は、エンハンスおよびフィルタリングされ得るものであり、自動的な目標ビード(すなわち、放射線不透過性目標形状)索出アルゴリズムが、次いで、画像内で可視である較正目標ビードのうちのいくつかまたはすべての場所を索出するために利用され得る(図53を確認されたい)。検出されるビードは、次いで、画素間隔を算出するために使用され得るものであり、その後に続くのが、空間内の3D目標姿勢の推定である。このことは、標準イメージングビューに相対的な較正目標の場所から抽出され得る先験的位置を使用してなどで、イメージャのビュー(例えば、X線写真ビュー)に基づいて、較正目標の位置を初期化することにより達成され得る。この初期姿勢は、次いで、入力画像内の投影されるビード構成を達成する姿勢を達成するように最適化され得る(図54を確認されたい)。較正目標を使用することに対する例示的な代替案は、各々の画像内の対応する点を使用することを含み得る。
例示的な本開示において、ランドマーキングは、較正された2D画像からのインプラントの配置のために必要であり得る、関連性のある外科手術ランドマークを抽出することのプロセスを含む。プロセスのフローチャートが、図55において解説される。例示的な形式において、2Dランドマークのセットが、第1の2D画像上で識別され得るものであり、例えば、点は、AP画像上の左および右ASISおよび恥骨結節点を含み得る。画像上のそれらのランドマークの初期位置は、自動的なアルゴリズムを使用して識別され得るものであり、そのアルゴリズムは、統計的解剖学的アトラスから抽出される集団統計とともに、2D画像から抽出される特徴点を利用して、それらのランドマークの箇所を算出し、それらの箇所は、次いで、例えば、ランドマークの位置を算出するために、それらのランドマークの、エッジおよび/またはテクスチャ情報、ならびに、相対的な位置を使用して制約され得る(図60を確認されたい)。
本開示によれば、3Dランドマークは、較正された手術中画像から抽出され得るものであり、関連性のある外科手術軸および寸法を算出するために使用され得る。骨盤の文脈において、これは、前後平面、SI、前後(AP)および内側外側(ML)方向、ならびに/または、解剖学的寛骨臼カップ中心および寸法を計算するための、右および左ASISおよび恥骨結節点を含み得る。所望されるインプラントサイズおよび向きの選択を可能とする、外科手術計画立案インターフェイスが、次いで、ユーザに提示され得る(図58を確認されたい)。
22 骨および軟組織再構築サブステップ
Claims (65)
- 体部分の動きを追跡する方法であって、
動きのレンジの中で再度位置設定される体部分から動きデータを収集するステップであって、前記体部分は、前記体部分に装着される動きセンサを有する、収集するステップと、
前記体部分が動きの前記レンジの中の異なる位置にある間に、前記体部分の、撮影される複数の放射線写真画像を収集するステップであって、前記複数の放射線写真画像は、視野の中に前記体部分および前記動きセンサを有する、収集するステップと、
前記複数の放射線写真画像のうちの少なくとも2つの中で識別可能な前記動きセンサの構造を使用して、前記放射線写真画像を較正して、前記複数の放射線写真画像から前記体部分の仮想3次元モデルを構築するステップと
を含む、方法。 - 前記動きセンサは、慣性測定ユニットを備える、請求項1に記載の方法。
- 前記慣性測定ユニットは、複数の加速度計、複数のジャイロスコープ、および、複数の磁気計を備える、請求項2に記載の方法。
- 前記動きセンサは、前記体部分に非剛体的に装着される、請求項1から3のいずれか一項に記載の方法。
- 前記動きセンサは、前記体部分を少なくとも部分的に覆う表皮の外の側に装着される、請求項4に記載の方法。
- 前記動きセンサは、前記体部分に剛体的に装着される、請求項1から3のいずれか一項に記載の方法。
- 前記動きセンサの前記構造は、抵抗器、チップ、コンデンサ、回路ボード、および電気導線のうちの少なくとも1つを備える、請求項1から6のいずれか一項に記載の方法。
- 前記放射線写真画像は、X線写真を含む、請求項1から7のいずれか一項に記載の方法。
- 前記放射線写真画像は、蛍光透視画像を含む、請求項1から7のいずれか一項に記載の方法。
- 前記放射線写真画像を較正するステップは、自動的に実行される、請求項1から9のいずれか一項に記載の方法。
- 前記放射線写真画像の前記自動的な較正は、ソフトウェアプログラムを実行するコンピュータにより実行される、請求項10に記載の方法。
- 時間に対する関数として、前記動きセンサの位置および回転のうちの少なくとも1つを決定するために使用され得る、前記動きセンサからのデータを収集するステップ
をさらに含む、請求項1から11のいずれか一項に記載の方法。 - 前記動きセンサから収集される前記データは、ワイヤレスで収集される、請求項12に記載の方法。
- 前記動きセンサから収集される前記データは、前記動きセンサに接続される電線から収集される、請求項12に記載の方法。
- 前記動きセンサから収集される前記データは、電話、コンピュータ、タブレット、およびポータブルメモリのうちの少なくとも1つにより収集される、請求項12から14のいずれか一項に記載の方法。
- 3次元空間内で、前記体部分の前記仮想3次元モデルに対して前記動きセンサをレジストレーションするステップと、
前記体部分の位置の関数として前記動きセンサからの収集されるデータを相関させて、動きの前記レンジの中で再度位置設定されるときに、前記体部分の実際の位置を反映するように再度位置設定可能である、前記体部分の仮想動的モデルを創出するステップと
をさらに含む、請求項1から15のいずれか一項に記載の方法。 - 前記複数の放射線写真画像を使用して、前記動きセンサの仮想3次元モデルを構築するステップ
をさらに含む、請求項1から16のいずれか一項に記載の方法。 - 前記動きセンサの前記仮想3次元モデルは、仮想3次元複合モデルを創出するために、前記体部分の前記仮想3次元モデルへと一体化される、請求項17に記載の方法。
- 前記体部分の位置の関数として前記動きセンサからの収集されるデータを相関させて、前記仮想3次元複合モデルに対する動的移動を提供するステップ
をさらに含む、請求項18に記載の方法。 - 前記動きデータを収集するステップは、時間の関数として、前記動きセンサの位置の変化および回転の変化のうちの少なくとも1つを記録するステップを含む、請求項1から19のいずれか一項に記載の方法。
- 前記動きデータを収集するステップは、時間の関数として、前記動きセンサの変化加速度を記録するステップを含む、請求項1から19のいずれか一項に記載の方法。
- 前記体部分の前記仮想3次元モデルを表示して、リアルタイムで前記実際の体部分の位置の変化を反映するステップ
をさらに含む、請求項1から21のいずれか一項に記載の方法。 - 収集される前記動きデータはタイムスタンプされる、請求項1から22のいずれか一項に記載の方法。
- 体部分の動きをたどるためのシステムであって、
動きセンサと、
前記動きセンサに通信可能に結合されるように構成されるプロセッサとを備え、前記プロセッサは、複数のモジュールに通信可能に結合され、前記モジュールは、
前記動きセンサにより生成される動きデータを記録するように構成されるデータ受信モジュールであって、前記データ受信モジュールおよび前記動きセンサのうちの少なくとも1つが、前記動きセンサにより生成される前記動きデータにタイムスタンプする、データ受信モジュールと、
複数の放射線写真画像にわたって可視である共通の特徴を、前記複数の放射線写真画像を較正するために識別するように構成される放射線写真画像処理モジュールと、
複数の放射線写真画像を処理し、前記複数の放射線写真画像のうちの少なくとも一部において視認可能な物体の仮想3次元モデルを創出するように構成される3次元モデルモジュールと
を備える、システム。 - 前記動きセンサは、慣性測定ユニットを含む、請求項24に記載のシステム。
- 前記動きセンサは、複数の加速度計を含む、請求項24に記載のシステム。
- 前記動きセンサは、複数の磁気計を含む、請求項24に記載のシステム。
- 前記動きセンサは、複数のジャイロスコープを含む、請求項24に記載のシステム。
- 前記プロセッサに通信可能に結合され、前記仮想3次元モデルを表示するように動作可能なディスプレイをさらに備える、請求項1から28のいずれか一項に記載のシステム。
- 放射線写真画像撮影機械をさらに備える、請求項1から29のいずれか一項に記載のシステム。
- 外科手術ナビゲーションを提供する方法であって、
体部分および少なくとも1つの画像目標を含む、複数個の有利な角度から手術中に撮影される複数の放射線写真画像を取得するステップと、
ナビゲーションシステムに対して手術中に前記体部分をレジストレーションするステップと、
前記ナビゲーションシステムにより使用される3次元座標系において、前記体部分の向きおよび位置のうちの少なくとも1つを算出するステップと、
前記体部分、外科手術器具、および整形外科インプラントのうちの少なくとも1つを含む有形物品の仮想モデルを表示するステップであって、前記有形物品の位置および向きのうちの少なくとも1つの変化と一致するように、前記仮想モデルの位置および向きのうちの少なくとも1つをリアルタイムで変化させるステップを含む、前記仮想モデルを表示するステップと
を含む、方法。 - 前記有形物品の前記仮想モデルは、前記ナビゲーションシステムと関連付けられる3次元モデルを含み、
レジストレーションする前記ステップは、前記3次元モデルに対して前記体部分の2次元画像をレジストレーションするステップを含む、
請求項31に記載の方法。 - レジストレーションする前記ステップは、前記複数の放射線写真画像から前記体部分の2次元解剖学的ランドマークを識別し、前記2次元解剖学的ランドマークを、前記ナビゲーションシステムの仮想3次元モデルと関連付けられる3次元ランドマークとレジストレーションするステップを含む、請求項31または32に記載の方法。
- 前記2次元解剖学的ランドマークを前記3次元解剖学的ランドマークとレジストレーションするステップは、前記3次元ランドマークを2次元画像上へと投影するステップを含む、請求項33に記載の方法。
- 前記3次元ランドマークを投影するステップは、選択される2次元ランドマークの間の距離が、対応する3次元ランドマークの間の距離に関して低減されるように、前記3次元モデルの姿勢を調整するステップを含む、請求項34に記載の方法。
- レジストレーションする前記ステップは、単一の位置および向きのみにおいて前記体部分と正しく係合する患者固有器具を使用するステップを含む、請求項31から34のいずれか一項に記載の方法。
- 前記患者固有器具は、慣性測定ユニットを含む、請求項36に記載の方法。
- 前記患者固有器具は、複数の加速度計を含む、請求項36に記載の方法。
- 前記患者固有器具は、複数のジャイロスコープを含む、請求項36に記載の方法。
- 前記患者固有器具は、複数の磁気計を含む、請求項36に記載の方法。
- 前記体部分を含む、複数個の有利な角度から手術前に撮影される複数の放射線写真画像を取得するステップと、
前記複数の放射線写真画像から前記体部分の仮想3次元モデルを創出するステップと
をさらに含む、請求項31から40のいずれか一項に記載の方法。 - 前記仮想3次元モデルを創出するステップより前に、手術前に撮影される前記複数の放射線写真画像を較正するステップ
をさらに含む、請求項41に記載の方法。 - 前記仮想3次元モデルを使用して外科手術処置を計画立案するステップ
をさらに含む、請求項41または42に記載の方法。 - 動きのレンジの中で再度位置設定される前記体部分から動きデータを収集するステップであって、前記体部分は、前記体部分に装着される動きセンサを有する、収集するステップ
をさらに含む、請求項31から43のいずれか一項に記載の方法。 - 前記動きセンサは、慣性測定ユニットを備える、請求項44に記載の方法。
- 前記慣性測定ユニットは、複数の加速度計、複数のジャイロスコープ、および、複数の磁気計を備える、請求項45に記載の方法。
- 前記動きセンサは、前記体部分に非剛体的に装着される、請求項44から46のいずれか一項に記載の方法。
- 前記動きセンサは、前記体部分を少なくとも部分的に覆う表皮の外の側に装着される、請求項47に記載の方法。
- 前記動きセンサは、前記体部分に剛体的に装着される、請求項44から46のいずれか一項に記載の方法。
- 前記複数の放射線写真画像は、複数のX線写真画像を含む、請求項31から49のいずれか一項に記載の方法。
- 前記複数の放射線写真画像は、複数の蛍光透視画像を含む、請求項31から49のいずれか一項に記載の方法。
- 手術中に取得される前記複数の放射線写真画像を較正するステップをさらに含む、請求項31から51のいずれか一項に記載の方法。
- 前記複数の放射線写真画像の前記較正は、ソフトウェアプログラムを実行するコンピュータにより自動的に実行される、請求項52に記載の方法。
- 時間に対する関数として、前記動きセンサの位置および回転のうちの少なくとも1つを決定するために使用され得る、前記動きセンサからのデータを収集するステップ
をさらに含む、請求項44から53のいずれか一項に記載の方法。 - 前記動きセンサから収集される前記データは、ワイヤレスで収集される、請求項54に記載の方法。
- 前記動きセンサから収集される前記データは、前記動きセンサに接続される電線から収集される、請求項54に記載の方法。
- 前記動きセンサから収集される前記データは、電話、コンピュータ、タブレット、およびポータブルメモリのうちの少なくとも1つにより収集される、請求項54から56のいずれか一項に記載の方法。
- 3次元空間内で、前記体部分の仮想3次元モデルに対して前記動きセンサをレジストレーションするステップと、
前記体部分の位置の関数として前記動きセンサからの収集されるデータを相関させて、動きのレンジの中で再度位置設定されるときに、前記体部分の実際の位置を反映するように再度位置設定可能である、前記体部分の仮想動的モデルを創出するステップと
をさらに含む、請求項44から57のいずれか一項に記載の方法。 - 前記複数の放射線写真画像を使用して、前記動きセンサの仮想3次元モデルを構築するステップ
をさらに含む、請求項44から57のいずれか一項に記載の方法。 - 前記複数の放射線写真画像を使用して、前記動きセンサの仮想3次元モデルを構築するステップ
をさらに含む、請求項58に記載の方法。 - 前記動きセンサの前記仮想3次元モデルは、仮想3次元複合モデルを創出するために、前記体部分の前記仮想3次元モデルへと一体化される、請求項60に記載の方法。
- 前記体部分の位置の関数として前記動きセンサからの収集されるデータを相関させて、前記仮想3次元複合モデルに対する動的移動を提供するステップ
をさらに含む、請求項61に記載の方法。 - 前記動きデータを収集するステップは、時間の関数として、前記動きセンサの位置の変化および回転の変化のうちの少なくとも1つを記録するステップを含む、請求項62に記載の方法。
- 前記動きデータを収集するステップは、時間の関数として、前記動きセンサの変化加速度を記録するステップを含む、請求項62に記載の方法。
- 収集される前記動きデータはタイムスタンプされる、請求項62に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021108854A JP7342069B2 (ja) | 2017-06-19 | 2021-06-30 | 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762521582P | 2017-06-19 | 2017-06-19 | |
US62/521,582 | 2017-06-19 | ||
US201762575905P | 2017-10-23 | 2017-10-23 | |
US62/575,905 | 2017-10-23 | ||
US201862617383P | 2018-01-15 | 2018-01-15 | |
US62/617,383 | 2018-01-15 | ||
PCT/US2018/038371 WO2018236936A1 (en) | 2017-06-19 | 2018-06-19 | SURGICAL HIP NAVIGATION USING FLUOROSCOPY AND MONITORING SENSORS |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021108854A Division JP7342069B2 (ja) | 2017-06-19 | 2021-06-30 | 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020527380A true JP2020527380A (ja) | 2020-09-10 |
JP7227168B2 JP7227168B2 (ja) | 2023-02-21 |
Family
ID=64736114
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571331A Active JP7227168B2 (ja) | 2017-06-19 | 2018-06-19 | 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション |
JP2021108854A Active JP7342069B2 (ja) | 2017-06-19 | 2021-06-30 | 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021108854A Active JP7342069B2 (ja) | 2017-06-19 | 2021-06-30 | 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション |
Country Status (6)
Country | Link |
---|---|
US (2) | US11331151B2 (ja) |
EP (1) | EP3618715A4 (ja) |
JP (2) | JP7227168B2 (ja) |
CN (1) | CN110944594A (ja) |
BR (1) | BR112019025107A2 (ja) |
WO (1) | WO2018236936A1 (ja) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9532845B1 (en) | 2015-08-11 | 2017-01-03 | ITKR Software LLC | Methods for facilitating individualized kinematically aligned total knee replacements and devices thereof |
WO2018081795A1 (en) | 2016-10-31 | 2018-05-03 | Zipline Medical, Inc. | Systems and methods for monitoring physical therapy of the knee and other joints |
WO2018094348A1 (en) | 2016-11-18 | 2018-05-24 | Stryker Corp. | Method and apparatus for treating a joint, including the treatment of cam-type femoroacetabular impingement in a hip joint and pincer-type femoroacetabular impingement in a hip joint |
JP7227168B2 (ja) | 2017-06-19 | 2023-02-21 | モハメド・アール・マーフーズ | 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション |
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
US11464569B2 (en) | 2018-01-29 | 2022-10-11 | Stryker Corporation | Systems and methods for pre-operative visualization of a joint |
US10517681B2 (en) * | 2018-02-27 | 2019-12-31 | NavLab, Inc. | Artificial intelligence guidance system for robotic surgery |
US11337760B2 (en) * | 2018-03-27 | 2022-05-24 | Virginia Commonwealth University | Automated hip analysis methods and devices |
GB2574074B (en) | 2018-07-27 | 2020-05-20 | Mclaren Applied Tech Ltd | Time synchronisation |
US11227385B2 (en) * | 2018-08-08 | 2022-01-18 | Loyola University Chicago | Methods of classifying and/or determining orientations of objects using two-dimensional images |
LU101007B1 (en) * | 2018-11-26 | 2020-05-26 | Metamorphosis Gmbh | Artificial-intelligence based reduction support |
US20200175756A1 (en) * | 2018-12-03 | 2020-06-04 | Intuitive Research And Technology Corporation | Two-dimensional to three-dimensional spatial indexing |
US20200194108A1 (en) * | 2018-12-13 | 2020-06-18 | Rutgers, The State University Of New Jersey | Object detection in medical image |
US20200205900A1 (en) * | 2018-12-31 | 2020-07-02 | Motion Insights, Inc. | Dynamic 3d motion capture for surgical implant orientation |
WO2020174284A1 (en) * | 2019-02-27 | 2020-09-03 | Body Vision Medical Ltd. | Methods and systems for movement compensation during three-dimensional reconstruction of anatomical structures |
US11995838B2 (en) * | 2019-03-18 | 2024-05-28 | Medtronic Navigation, Inc. | System and method for imaging |
JP7440534B2 (ja) * | 2019-04-04 | 2024-02-28 | センターライン バイオメディカル,インコーポレイテッド | 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション |
US11069125B2 (en) * | 2019-04-09 | 2021-07-20 | Intuitive Research And Technology Corporation | Geometry buffer slice tool |
DE102019109789A1 (de) * | 2019-04-12 | 2020-10-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Computerprogramm zum zeitaufgelösten Berechnen einer Deformation eines Körpers |
WO2020227832A1 (en) * | 2019-05-15 | 2020-11-19 | Intellijoint Surgical Inc. | Systems and methods for computer assisted femoral surgery |
US11980506B2 (en) | 2019-07-29 | 2024-05-14 | Augmedics Ltd. | Fiducial marker |
US20220296193A1 (en) * | 2019-09-05 | 2022-09-22 | The Johns Hopkins Uniersity | Fast and automatic pose estimation using intraoperatively located fiducials and single-view fluoroscopy |
US11399965B2 (en) * | 2019-09-09 | 2022-08-02 | Warsaw Orthopedic, Inc. | Spinal implant system and methods of use |
GB2588236B (en) | 2019-10-18 | 2024-03-20 | Mclaren Applied Ltd | Gyroscope bias estimation |
US20210251591A1 (en) * | 2020-02-17 | 2021-08-19 | Globus Medical, Inc. | System and method of determining optimal 3-dimensional position and orientation of imaging device for imaging patient bones |
US20230074481A1 (en) * | 2020-02-18 | 2023-03-09 | Koninklijke Philips N.V. | Medical imaging systems, devices, and methods for visualizing a deployment state of an intracorporeal therapeutic device |
AU2021230410A1 (en) * | 2020-03-04 | 2022-10-27 | 360 Knee Systems Pty Ltd | "intraoperative localisation systems and methods" |
US20230105898A1 (en) * | 2020-03-04 | 2023-04-06 | 360 Knee Systems Pty Ltd | Image processing for intraoperative guidance systems |
WO2021174292A1 (en) * | 2020-03-04 | 2021-09-10 | 360 Knee Systems Pty Ltd | "intraoperative guidance systems and methods" |
JP2021137500A (ja) * | 2020-03-09 | 2021-09-16 | 学校法人東京医科大学 | 骨部手術の支援装置、支援方法、プログラム、および記録媒体 |
EP3888563A1 (en) * | 2020-03-31 | 2021-10-06 | Ecential Robotics | Method and system for generating images for a fluoroscopy-based navigation system |
TWI753412B (zh) * | 2020-04-27 | 2022-01-21 | 長庚醫療財團法人林口長庚紀念醫院 | 產生用於自動定位出定位點的模型的方法、骨骼狀態分析方法及電子系統 |
US12004967B2 (en) | 2020-06-02 | 2024-06-11 | Howmedica Osteonics Corp. | Systems and methods for planning placement of an acetabular implant for a patient based on pelvic tilt |
US11328435B2 (en) * | 2020-06-08 | 2022-05-10 | KLA Corp. | Image alignment setup for specimens with intra- and inter-specimen variations using unsupervised learning and adaptive database generation methods |
US11918370B2 (en) * | 2020-06-10 | 2024-03-05 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for estimation of Parkinson's Disease gait impairment severity from videos using MDS-UPDRS |
JP2023536565A (ja) * | 2020-08-04 | 2023-08-28 | ストライカー・コーポレイション | 外科用器具を用いる軌道を視覚化するシステム及び方法 |
CN111968164A (zh) * | 2020-08-19 | 2020-11-20 | 上海交通大学 | 一种基于双平面x光追踪的植入物自动配准定位方法 |
CN112091983B (zh) * | 2020-11-17 | 2021-02-12 | 南京佗道医疗科技有限公司 | 一种精度校验装置、系统及方法 |
AU2021383765A1 (en) * | 2020-11-19 | 2023-06-22 | Circinus Medical Technology Llc | Systems and methods for artificial intelligence based image analysis for placement of surgical appliance |
KR102283673B1 (ko) * | 2020-11-30 | 2021-08-03 | 주식회사 코어라인소프트 | 병변 추적 검사에 기반하여 진단 보조 정보의 임계치를 조정하는 의료 영상 판독 지원 장치 및 방법 |
JP2023553420A (ja) * | 2020-12-02 | 2023-12-21 | アクルー イメージング,インコーポレイテッド | マルチモーダル画像を蛍光透視像に融合する方法および装置 |
CN112472293B (zh) * | 2020-12-15 | 2022-10-21 | 山东威高医疗科技有限公司 | 一种术前三维影像与术中透视图像的配准方法 |
WO2022133442A1 (en) * | 2020-12-15 | 2022-06-23 | Stryker Corporation | Systems and methods for generating a three-dimensional model of a joint from two-dimensional images |
EP4016536A1 (en) * | 2020-12-16 | 2022-06-22 | Polar Electro Oy | Biomechanical modelling of motion measurements |
AU2021416534A1 (en) * | 2021-01-06 | 2023-07-27 | Precision AI Pty Ltd | Surgical system |
US11322244B2 (en) * | 2021-03-16 | 2022-05-03 | Seshadri Paravastu | System and method for determining anisomelia condition of a subject using image analysis and deep neural network learning |
EP4062853A1 (en) * | 2021-03-23 | 2022-09-28 | MinMaxMedical | Method for locating object(s) in particular for optimal lower limb surgery planning using x-ray images |
EP4351468A1 (en) * | 2021-06-08 | 2024-04-17 | Stryker European Operations Limited | Surgical reference body for referencing a patient's anatomy during surgery |
CN113633376B (zh) * | 2021-08-06 | 2024-03-15 | 吉林大学 | 一种全髋关节裸眼三维虚拟置换方法 |
DE102021124873A1 (de) | 2021-09-27 | 2023-03-30 | Aesculap Ag | Medizintechnisches System und Verfahren |
WO2023056261A1 (en) * | 2021-09-30 | 2023-04-06 | Microport Orthopedics Holdings Inc. | Systems and methods of using photogrammetry for intraoperatively aligning surgical elements |
WO2024058965A1 (en) * | 2022-09-12 | 2024-03-21 | Intuitive Surgical Operations, Inc. | Determination of a contour physical distance within a subject based on a deformable three-dimensional model |
CN116712171B (zh) * | 2023-08-11 | 2023-11-03 | 北京维卓致远医疗科技发展有限责任公司 | 一种粗隆间骨折导航方法、设备及可存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060251300A1 (en) * | 2003-06-16 | 2006-11-09 | Koninklijke Philips Electronics N.V. | Imaging system for interventional radiology |
JP2007518540A (ja) * | 2004-01-22 | 2007-07-12 | スミス アンド ネフュー インコーポレーテッド | 患者に対して取り付けられた外科手術ナビゲーションセンサを提供するための方法およびシステムおよび装置 |
JP2009505708A (ja) * | 2005-08-25 | 2009-02-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 線及びリング切除を続けるための電気生理学的な復帰支援のためのシステム及び方法。 |
JP2009131632A (ja) * | 2007-11-29 | 2009-06-18 | Biosense Webster Inc | 解剖学的構造の閃光撮影写真図 |
JP2014025791A (ja) * | 2012-07-26 | 2014-02-06 | Olympus Corp | キャリブレーション装置およびプログラム |
JP2016539757A (ja) * | 2013-11-04 | 2016-12-22 | サージヴィジオ | 二次元x線画像から三次元画像を再構築する方法 |
Family Cites Families (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5951475A (en) * | 1997-09-25 | 1999-09-14 | International Business Machines Corporation | Methods and apparatus for registering CT-scan data to multiple fluoroscopic images |
US20040068187A1 (en) * | 2000-04-07 | 2004-04-08 | Krause Norman M. | Computer-aided orthopedic surgery |
AU2001290888B8 (en) | 2000-09-14 | 2007-07-26 | The Board Of Trustees Of The Leland Stanford Junior University | Assessing the condition of a joint and devising treatment |
FR2822273B1 (fr) * | 2001-03-13 | 2003-07-11 | Ge Med Sys Global Tech Co Llc | Procede d'etalonnage pour la reconstruction de modelisations tri-dimensionnelles a partir d'images obtenues par tomographie |
US6990368B2 (en) * | 2002-04-04 | 2006-01-24 | Surgical Navigation Technologies, Inc. | Method and apparatus for virtual digital subtraction angiography |
FR2841118B1 (fr) * | 2002-06-20 | 2012-03-23 | Perception Raisonnement Action En Medecine | Determination de la position d'un appareil de radiographie ou de radioscopie |
JP4415762B2 (ja) * | 2003-06-10 | 2010-02-17 | 株式会社島津製作所 | 断層撮影装置 |
US6888924B2 (en) * | 2003-06-25 | 2005-05-03 | General Electric Company | Method, apparatus, and medium for calibration of tomosynthesis system geometry using fiducial markers with non-determined position |
US7441953B2 (en) * | 2004-10-07 | 2008-10-28 | University Of Florida Research Foundation, Inc. | Radiographic medical imaging system using robot mounted source and sensor for dynamic image capture and tomography |
US8007448B2 (en) * | 2004-10-08 | 2011-08-30 | Stryker Leibinger Gmbh & Co. Kg. | System and method for performing arthroplasty of a joint and tracking a plumb line plane |
DE102005023167B4 (de) * | 2005-05-19 | 2008-01-03 | Siemens Ag | Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz |
US20080221487A1 (en) * | 2007-03-07 | 2008-09-11 | Motek Bv | Method for real time interactive visualization of muscle forces and joint torques in the human body |
WO2008142629A2 (en) | 2007-05-24 | 2008-11-27 | Koninklijke Philips Electronics N.V. | Multifunctional marker |
US8657772B2 (en) * | 2007-07-20 | 2014-02-25 | össur hf. | Wearable device having feedback characteristics |
EP2146321B1 (en) * | 2008-07-14 | 2012-12-12 | Cefla S.C. | Dynamic error correction in radiographic imaging |
US8444564B2 (en) | 2009-02-02 | 2013-05-21 | Jointvue, Llc | Noninvasive diagnostic system |
WO2010122145A1 (en) * | 2009-04-25 | 2010-10-28 | Siemens Aktiengesellschaft | A method and a system for assessing the relative pose of an implant and a bone of a creature |
US9554868B2 (en) * | 2009-08-07 | 2017-01-31 | DePuy Synthes Products, Inc. | Method and apparatus for reducing malalignment of fractured bone fragments |
US8538106B2 (en) * | 2009-10-20 | 2013-09-17 | Siemens Aktiengesellschaft | Three-dimensional esophageal reconstruction |
US8411927B2 (en) * | 2009-10-29 | 2013-04-02 | Siemens Aktiengesellschaft | Marker detection in X-ray images |
DE102010020284A1 (de) * | 2010-05-12 | 2011-11-17 | Siemens Aktiengesellschaft | Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern |
US8655053B1 (en) * | 2010-05-31 | 2014-02-18 | Andrew S Hansen | Body modeling and garment fitting using an electronic device |
JP5600272B2 (ja) * | 2010-07-16 | 2014-10-01 | 富士フイルム株式会社 | 放射線撮影装置および方法並びにプログラム |
WO2012127353A1 (en) * | 2011-03-18 | 2012-09-27 | Koninklijke Philips Electronics N.V. | Multi-leg geometry reference tracker for multi-modality data fusion |
WO2012160486A2 (en) * | 2011-05-23 | 2012-11-29 | Koninklijke Philips Electronics N.V. | Wireless prospective motion marker |
WO2012164173A2 (en) * | 2011-06-03 | 2012-12-06 | Nexstim Oy | Method of and system for overlaying nbs functional data on a live image of a brain |
WO2013056231A1 (en) * | 2011-10-14 | 2013-04-18 | Jointvue, Llc | Real-time 3-d ultrasound reconstruction of knee and its complications for patient specific implants and 3-d joint injections |
US20130244211A1 (en) * | 2012-03-15 | 2013-09-19 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for measuring, analyzing, and providing feedback for movement in multidimensional space |
WO2013166299A1 (en) * | 2012-05-03 | 2013-11-07 | University Of Pittsburgh - Of The Commonwealth System Of Higher Education | Intelligent algorithms for tracking three-dimensional skeletal movement from radiographic image sequences |
EP2861140B1 (en) * | 2012-06-13 | 2016-12-07 | Brainlab AG | Determining a range of motion of an artificial knee joint |
DE102012210758A1 (de) * | 2012-06-25 | 2014-01-02 | Sirona Dental Systems Gmbh | Verfahren zur Überprüfung von Zahnstellungen |
EP2874550B1 (en) * | 2012-07-23 | 2017-09-27 | Orthosoft, Inc. | Patient-specific instrumentation for implant revision surgery |
EP2932465B1 (en) * | 2012-12-17 | 2018-02-07 | Brainlab AG | Removing image distortions based on movement of an imaging device |
WO2014152252A1 (en) * | 2013-03-14 | 2014-09-25 | Active Implants Corporation | Meniscus prosthetic devices with anti-migration or radiopaque features |
US10258256B2 (en) | 2014-12-09 | 2019-04-16 | TechMah Medical | Bone reconstruction and orthopedic implants |
WO2015120479A1 (en) * | 2014-02-10 | 2015-08-13 | Neuronetics, Inc. | Head modeling for a therapeutic or diagnostic procedure |
KR102506455B1 (ko) | 2014-07-10 | 2023-03-07 | 모하메드 라쉬완 마푸즈 | 뼈 재건 및 정형외과용 임플란트 |
US10146308B2 (en) | 2014-10-14 | 2018-12-04 | Immersion Corporation | Systems and methods for impedance coupling for haptic devices |
GB2536405A (en) * | 2015-01-15 | 2016-09-21 | Corin Ltd | Pre-operative joint diagnostics |
US10013808B2 (en) * | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
US10413377B2 (en) | 2015-03-19 | 2019-09-17 | Medtronic Navigation, Inc. | Flexible skin based patient tracker for optical navigation |
US10709377B2 (en) * | 2015-03-23 | 2020-07-14 | Consensus Orthopedics, Inc. | System and methods for monitoring an orthopedic implant and rehabilitation |
EP3274912B1 (en) * | 2015-03-26 | 2022-05-11 | Biomet Manufacturing, LLC | System for planning and performing arthroplasty procedures using motion-capture data |
WO2016183812A1 (zh) * | 2015-05-20 | 2016-11-24 | 北京诺亦腾科技有限公司 | 一种混合运动捕捉系统及方法 |
US10575759B2 (en) * | 2015-07-01 | 2020-03-03 | BaziFIT, Inc. | Method and system for monitoring and analyzing position, motion, and equilibrium of body parts |
JP7227168B2 (ja) | 2017-06-19 | 2023-02-21 | モハメド・アール・マーフーズ | 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション |
US9924921B1 (en) * | 2017-06-20 | 2018-03-27 | Qualcomm Incorporated | System for mapping joint performance |
-
2018
- 2018-06-19 JP JP2019571331A patent/JP7227168B2/ja active Active
- 2018-06-19 BR BR112019025107-3A patent/BR112019025107A2/pt unknown
- 2018-06-19 US US16/012,718 patent/US11331151B2/en active Active
- 2018-06-19 EP EP18821593.3A patent/EP3618715A4/en active Pending
- 2018-06-19 CN CN201880040562.5A patent/CN110944594A/zh active Pending
- 2018-06-19 WO PCT/US2018/038371 patent/WO2018236936A1/en unknown
-
2021
- 2021-06-30 JP JP2021108854A patent/JP7342069B2/ja active Active
-
2022
- 2022-04-12 US US17/719,230 patent/US11826111B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060251300A1 (en) * | 2003-06-16 | 2006-11-09 | Koninklijke Philips Electronics N.V. | Imaging system for interventional radiology |
JP2006527620A (ja) * | 2003-06-16 | 2006-12-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | インターベンショナルラジオロジーのためのイメージングシステム |
JP2007518540A (ja) * | 2004-01-22 | 2007-07-12 | スミス アンド ネフュー インコーポレーテッド | 患者に対して取り付けられた外科手術ナビゲーションセンサを提供するための方法およびシステムおよび装置 |
JP2009505708A (ja) * | 2005-08-25 | 2009-02-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 線及びリング切除を続けるための電気生理学的な復帰支援のためのシステム及び方法。 |
JP2009131632A (ja) * | 2007-11-29 | 2009-06-18 | Biosense Webster Inc | 解剖学的構造の閃光撮影写真図 |
JP2014025791A (ja) * | 2012-07-26 | 2014-02-06 | Olympus Corp | キャリブレーション装置およびプログラム |
JP2016539757A (ja) * | 2013-11-04 | 2016-12-22 | サージヴィジオ | 二次元x線画像から三次元画像を再構築する方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2021154168A (ja) | 2021-10-07 |
US11331151B2 (en) | 2022-05-17 |
US20220296313A1 (en) | 2022-09-22 |
CN110944594A (zh) | 2020-03-31 |
EP3618715A4 (en) | 2021-02-17 |
JP7227168B2 (ja) | 2023-02-21 |
US11826111B2 (en) | 2023-11-28 |
BR112019025107A2 (pt) | 2020-06-23 |
US20190133693A1 (en) | 2019-05-09 |
WO2018236936A1 (en) | 2018-12-27 |
EP3618715A1 (en) | 2020-03-11 |
JP7342069B2 (ja) | 2023-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7342069B2 (ja) | 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション | |
JP7071480B2 (ja) | 無線超音波追跡および通信のためのウルトラワイドバンドの位置決め | |
AU2015287598B2 (en) | Bone reconstruction and orthopedic implants | |
EP4111996A2 (en) | Systems and methods of using three-dimensional image reconstruction to aid in assessing bone or soft tissue aberrations for orthopedic surgery | |
US20230027518A1 (en) | Systems and methods for using photogrammetry to create patient-specific guides for orthopedic surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210303 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210630 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210630 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20211025 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20211101 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20211203 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20211213 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220207 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220411 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221101 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20221212 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20230110 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7227168 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |