JP2008538184A - 触覚誘導システムおよび方法 - Google Patents
触覚誘導システムおよび方法 Download PDFInfo
- Publication number
- JP2008538184A JP2008538184A JP2007556331A JP2007556331A JP2008538184A JP 2008538184 A JP2008538184 A JP 2008538184A JP 2007556331 A JP2007556331 A JP 2007556331A JP 2007556331 A JP2007556331 A JP 2007556331A JP 2008538184 A JP2008538184 A JP 2008538184A
- Authority
- JP
- Japan
- Prior art keywords
- surgical
- bone
- representation
- implant
- haptic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 345
- 210000003484 anatomy Anatomy 0.000 claims abstract description 190
- 230000033001 locomotion Effects 0.000 claims abstract description 87
- 230000004044 response Effects 0.000 claims abstract description 30
- 230000001133 acceleration Effects 0.000 claims abstract description 17
- 210000000988 bone and bone Anatomy 0.000 claims description 354
- 239000007943 implant Substances 0.000 claims description 247
- 238000001514 detection method Methods 0.000 claims description 74
- 238000013439 planning Methods 0.000 claims description 66
- 238000002360 preparation method Methods 0.000 claims description 53
- 238000013459 approach Methods 0.000 claims description 47
- 239000000463 material Substances 0.000 claims description 45
- 210000000845 cartilage Anatomy 0.000 claims description 34
- 239000000523 sample Substances 0.000 claims description 34
- 230000007246 mechanism Effects 0.000 claims description 26
- 230000008713 feedback mechanism Effects 0.000 claims description 25
- 241000469816 Varus Species 0.000 claims description 24
- 241001227561 Valgus Species 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 21
- 239000003550 marker Substances 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 12
- 230000000149 penetrating effect Effects 0.000 claims description 7
- 230000003213 activating effect Effects 0.000 claims description 4
- 238000002513 implantation Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 claims 6
- 230000003247 decreasing effect Effects 0.000 claims 4
- 230000000452 restraining effect Effects 0.000 claims 2
- 239000000126 substance Substances 0.000 claims 1
- 230000008569 process Effects 0.000 description 102
- 239000012636 effector Substances 0.000 description 79
- 238000004422 calculation algorithm Methods 0.000 description 68
- 210000000689 upper leg Anatomy 0.000 description 68
- 238000001356 surgical procedure Methods 0.000 description 65
- 210000002414 leg Anatomy 0.000 description 60
- 210000002303 tibia Anatomy 0.000 description 55
- 238000005520 cutting process Methods 0.000 description 43
- 230000006870 function Effects 0.000 description 41
- 238000009877 rendering Methods 0.000 description 34
- 210000003127 knee Anatomy 0.000 description 21
- 210000002683 foot Anatomy 0.000 description 17
- 230000005540 biological transmission Effects 0.000 description 16
- 230000000399 orthopedic effect Effects 0.000 description 15
- 230000009466 transformation Effects 0.000 description 15
- 238000002591 computed tomography Methods 0.000 description 14
- 230000011218 segmentation Effects 0.000 description 14
- 230000008901 benefit Effects 0.000 description 13
- 230000006399 behavior Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 230000002452 interceptive effect Effects 0.000 description 11
- 210000000629 knee joint Anatomy 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 11
- 238000003860 storage Methods 0.000 description 11
- 238000013016 damping Methods 0.000 description 10
- 238000002324 minimally invasive surgery Methods 0.000 description 10
- 230000035515 penetration Effects 0.000 description 10
- 238000013507 mapping Methods 0.000 description 9
- 238000012795 verification Methods 0.000 description 9
- 230000001276 controlling effect Effects 0.000 description 8
- 238000013150 knee replacement Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000005452 bending Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 210000001503 joint Anatomy 0.000 description 7
- 210000004872 soft tissue Anatomy 0.000 description 7
- 238000011282 treatment Methods 0.000 description 7
- 210000000707 wrist Anatomy 0.000 description 7
- 239000003973 paint Substances 0.000 description 6
- 238000005096 rolling process Methods 0.000 description 6
- 238000007493 shaping process Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000011960 computer-aided design Methods 0.000 description 5
- 210000001624 hip Anatomy 0.000 description 5
- 238000002595 magnetic resonance imaging Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000002604 ultrasonography Methods 0.000 description 5
- 210000001264 anterior cruciate ligament Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 210000002310 elbow joint Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000000047 product Substances 0.000 description 4
- 238000002271 resection Methods 0.000 description 4
- 238000012384 transportation and delivery Methods 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- RNAMYOYQYRYFQY-UHFFFAOYSA-N 2-(4,4-difluoropiperidin-1-yl)-6-methoxy-n-(1-propan-2-ylpiperidin-4-yl)-7-(3-pyrrolidin-1-ylpropoxy)quinazolin-4-amine Chemical compound N1=C(N2CCC(F)(F)CC2)N=C2C=C(OCCCN3CCCC3)C(OC)=CC2=C1NC1CCN(C(C)C)CC1 RNAMYOYQYRYFQY-UHFFFAOYSA-N 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000012377 drug delivery Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000007373 indentation Methods 0.000 description 3
- 230000002262 irrigation Effects 0.000 description 3
- 238000003973 irrigation Methods 0.000 description 3
- 238000000465 moulding Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 241000567769 Isurus oxyrinchus Species 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 229910052782 aluminium Inorganic materials 0.000 description 2
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 239000006227 byproduct Substances 0.000 description 2
- 239000004568 cement Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 230000001143 conditioned effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 238000010304 firing Methods 0.000 description 2
- 238000002594 fluoroscopy Methods 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000013011 mating Effects 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 210000002967 posterior cruciate ligament Anatomy 0.000 description 2
- 230000001681 protective effect Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 229920002994 synthetic fiber Polymers 0.000 description 2
- 210000002435 tendon Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000008733 trauma Effects 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 208000004550 Postoperative Pain Diseases 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- PXAWCNYZAWMWIC-UHFFFAOYSA-N [Fe].[Nd] Chemical compound [Fe].[Nd] PXAWCNYZAWMWIC-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004164 analytical calibration Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 230000002917 arthritic effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- KPLQYGBQNPPQGA-UHFFFAOYSA-N cobalt samarium Chemical compound [Co].[Sm] KPLQYGBQNPPQGA-UHFFFAOYSA-N 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 238000011540 hip replacement Methods 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 230000036512 infertility Effects 0.000 description 1
- 229940030980 inova Drugs 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000009347 mechanical transmission Effects 0.000 description 1
- UOJMTSCORVQOHS-UHFFFAOYSA-N pachypodol Natural products COc1cc(ccc1O)C2=C(C)C(=O)c3c(O)cc(C)cc3O2 UOJMTSCORVQOHS-UHFFFAOYSA-N 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 238000012831 peritoneal equilibrium test Methods 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000012636 positron electron tomography Methods 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 238000012877 positron emission topography Methods 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001012 protector Effects 0.000 description 1
- 238000001959 radiotherapy Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000007634 remodeling Methods 0.000 description 1
- 230000002940 repellent Effects 0.000 description 1
- 239000005871 repellent Substances 0.000 description 1
- 230000001846 repelling effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 229910000938 samarium–cobalt magnet Inorganic materials 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 230000001954 sterilising effect Effects 0.000 description 1
- 238000004659 sterilization and disinfection Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- -1 tissue Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/16—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
- A61B17/1662—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
- A61B17/1675—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the knee
- A61B17/1677—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the knee for the patella
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/16—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
- A61B17/17—Guides or aligning means for drills, mills, pins or wires
- A61B17/1739—Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/16—Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
- A61B17/17—Guides or aligning means for drills, mills, pins or wires
- A61B17/1739—Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body
- A61B17/1764—Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body for the knee
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00119—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00681—Aspects not otherwise provided for
- A61B2017/00725—Calibration or performance testing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
- A61B2034/207—Divots for calibration
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/252—User interfaces for surgical systems indicating steps of a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/254—User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/305—Details of wrist mechanisms at distal ends of robotic arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/08—Accessories or related features not otherwise provided for
- A61B2090/0801—Prevention of accidental cutting or pricking
- A61B2090/08021—Prevention of accidental cutting or pricking of the patient or his organs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1127—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/745—Details of notification to user or communication with user or patient ; user input means using visual displays using a holographic display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/037—Emission tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4423—Constructional features of apparatus for radiation diagnosis related to hygiene or sterilisation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5247—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/463—Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
- A61B90/14—Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F2/00—Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
- A61F2/02—Prostheses implantable into the body
- A61F2/30—Joints
- A61F2/38—Joints for elbows or knees
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36432—By putting some constraints on some DOF, move within limited volumes, areas, planes, limits motion in x, y or z planes, virtual reality constraints
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Robotics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Surgical Instruments (AREA)
- Prostheses (AREA)
Abstract
外科装置は、ユーザによって操作されて患者に対して処置を実施するように構成された外科デバイスおよびコンピュータシステムを含む。コンピュータシステムは、患者の解剖学的構造と、外科デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて外科デバイスを制御して、ユーザに対する触覚誘導および外科デバイスのユーザ操作に対する制限の少なくとも一方を提供するための制御パラメータを具現化し、処置中の解剖学的構造の動きに応答して制御パラメータを調節するようにプログラムされている。
Description
発明の分野
本発明は、外科システム、より具体的には、整形外科的関節置換のための外科システムおよび方法に関する。なお、以下の出願それぞれが参照により全体として本明細書に組み入れられる。2006年1月17日出願の米国特許仮出願第60/759,186号、2005年2月22日出願の米国特許仮出願第60/655,642号、2003年7月16日出願の米国特許出願第10/621,119号、2003年3月6日出願の米国特許出願第10/384,194号、2003年3月6日出願の米国特許出願第10/384,078号、2003年3月6日出願の米国特許出願第10/384,077号、2003年3月6日出願の米国特許出願第10/384,072号および2002年3月6日出願の米国特許仮出願第60/362,368号。
本発明は、外科システム、より具体的には、整形外科的関節置換のための外科システムおよび方法に関する。なお、以下の出願それぞれが参照により全体として本明細書に組み入れられる。2006年1月17日出願の米国特許仮出願第60/759,186号、2005年2月22日出願の米国特許仮出願第60/655,642号、2003年7月16日出願の米国特許出願第10/621,119号、2003年3月6日出願の米国特許出願第10/384,194号、2003年3月6日出願の米国特許出願第10/384,078号、2003年3月6日出願の米国特許出願第10/384,077号、2003年3月6日出願の米国特許出願第10/384,072号および2002年3月6日出願の米国特許仮出願第60/362,368号。
関連技術の説明
最小侵襲手術(MIS)とは、従来の外科的方法で使用される切開よりも相当に小さい切開を介する施術である。たとえば、全膝置換術のような整形外科的用途では、従来の全膝手術における切開長は通常、約6〜12インチの範囲であるが、MISの切開長は約4〜6インチの範囲であることができる。より小さな切開長の結果として、MIS法は一般に、従来の外科的方法よりも侵襲性が低く、それが、軟組織に対する外傷を最小限にし、術後の痛みを減らし、より早期の可動化を促進し、入院を短縮し、リハビリを加速する。
最小侵襲手術(MIS)とは、従来の外科的方法で使用される切開よりも相当に小さい切開を介する施術である。たとえば、全膝置換術のような整形外科的用途では、従来の全膝手術における切開長は通常、約6〜12インチの範囲であるが、MISの切開長は約4〜6インチの範囲であることができる。より小さな切開長の結果として、MIS法は一般に、従来の外科的方法よりも侵襲性が低く、それが、軟組織に対する外傷を最小限にし、術後の痛みを減らし、より早期の可動化を促進し、入院を短縮し、リハビリを加速する。
MISの一つの欠点は、小さな切開サイズが、解剖学的構造を見、それにアクセスする外科医の能力を低くするということである。たとえば、最小侵襲整形外科的関節置換では、関節への限られた可視性および限られたアクセスが、正しいインプラント位置を評価し、骨を形成し直す複雑さを増す。その結果、インプラントの正確な配置がより困難になるおそれがある。これらの課題に対処するための従来技術は、たとえば、外科ナビゲーション、最適な関節露出のための脚の位置決めならびに特別に設計され、小型化された器具類および複雑な外科技術の使用を含む。しかし、このような技術は通常、多量の特殊化された器具類、長い訓練プロセスおよび高度な熟練を要する。そのうえ、一人の外科医の場合の手術結果および異なる外科医の間での手術結果が十分に予測可能、繰返し可能および/または正確ではない。その結果、インプラント性能および寿命が患者間で異なる。
整形外科用途では、MISおよび従来の外科的方法に共通の一つの欠点は、インプラントを受けるように骨を調製する際に、患部の骨だけでなく健康な骨をも除去してしまうことである。たとえば、全膝置換のためには、膝の三つの区画それぞれの骨を最大1/2インチ除去することを要する場合がある。健康な骨を保存するための一つの従来の解決法は、膝の1区画だけが損傷している場合に部分的(または単一区画的)膝置換を実施することである。単一区画的処置法は、膝の一つの区画だけの損傷または関節炎部分の除去を含む。たとえば、REPICCI(登録商標)膝単顆システムは一般に、膝の一つの区画の骨を約1/4インチ除去するだけでよい。REPICCI(登録商標)システムは、通常は長さ約3インチの最小侵襲切開を介して球面バーを用いる骨のフリーハンド彫刻を使用する。球面バーは、外科鋸子では再現することができない丸みのある形の切削を可能にする。しかし、このフリーハンドバーリング技術は習得しにくく、外科医に対し、従来の切削ジグまたは鋸子ガイドを使用する技術よりも芸術的な彫刻能力を要する。その結果、フリーハンド切削は、十分に予測可能、繰返し可能および/または正確である有効な結果を達成するためには高度な熟練を要する。そのうえ、REPICCI(登録商標)技術および従来の外科的方法は、複雑または高度に湾曲した形状を有する切削を施すことはできない。したがって、このような処置法は一般に、患部および/または損傷した骨とともに健康な骨を少なくともいくらかは除去せざるを得ない。
MISおよび従来の整形外科的方法に共通のもう一つの欠点は、そのような処置法が外科医本来の外科的処置の熟練を協調的に向上させないということである。たとえば、関節置換のためのいくつかの従来技術は、外科医を支援するための自律的ロボットシステムを含む。しかし、そのようなシステムは一般に、高速バーを用いて自律的切削を実施することにより、またはドリルガイドを所定位置に動かし、外科医が切削ツールをガイドに挿入する間にドリルガイドの位置を保持することにより、主として骨の加工を向上させるように働く。そのようなシステムは、改善されたインプラント装着および配置のための精密な骨切除を可能にするが、自律的に(外科医とで協調的ではなく)作用し、したがって、外科医がある程度の統制をロボットに譲ることを要する。自律システムのさらなる欠点は、ロボットの大きなサイズ、人間工学性の不十分さ、位置合わせおよび切削の間に骨を強固に締め付ける必要性、十分なロボットアクセスのための切開長の増大ならびにシステムの自律性を理由とする外科医および規制当局による承認の制限を含む。
他の従来のロボットシステムは、外科医と協調的に対話するロボットを含む。従来の対話式ロボットシステムの一つの欠点は、そのようなシステムが外科プラニングおよびナビゲーションをリアルタイムで動的な術中環境に適合させる能力を欠くということである。たとえば、全体が参照により本明細書に組み入れられる米国特許出願第10/470,314号(公開番号US2004/0128026)(特許文献1)は、患者に位置合わせされる三次元仮想拘束領域でプログラムされた対話式ロボットシステムを開示している。このロボットシステムは、力センサを組み込んだ取っ手を有する3自由度(3-DOF)アームを含む。外科医は、取っ手を使用してアームを操作して切削ツールを動かす。取っ手を介するアームの動きは、外科医によって取っ手に加えられる力を力センサが計測することができるようにするために必要である。そして、計測された力は、切削ツールの動きを援助または抑制するためにモータを制御することに使用される。たとえば、膝置換手術の間、患者の大腿骨および脛骨はロボットシステムに対して所定位置に固定される。外科医が取っ手に力を加えて切削ツールを動かすと、切削ツールが仮想拘束領域の境界に近づくにつれ、対話式ロボットシステムは、切削ツールの動きを抑制するための増大する程度の抵抗を加えることができる。このようにして、ロボットシステムは、切削ツールを仮想拘束領域内に維持することにより、骨を調製する際に外科医を誘導する。しかし、上記の自律システムに関して、対話式ロボットシステムは、主として骨の加工を向上させるように機能する。対話式ロボットシステムはまた、該当する解剖学的構造を強固に抑え、ロボットシステムを大まかな位置に固定することを要し、したがって、手術中場面に対するリアルタイム適合性を欠く。そのうえ、アームの3-DOF構造および外科医が力取っ手を使用してアームを操作するという要件が、限られた融通性および器用さを生じさせ、ロボットシステムを特定のMIS用途で不適当なものにする。
前記を考慮すると、最小侵襲手術において直接可視化に取って代わることができ、整形外科的関節置換用途で健康な骨を温存し、術中適合性および外科プラニングを可能にし、外科的熟練レベルにかかわらず十分に予測可能、繰返し可能および/または正確である手術結果を出すことができる外科システムの必要性がある。外科システムは、必ずしもこれらの必要性のすべてを満たす必要はないし、これらの必要性のいずれかが優先してもよいが、これらの必要性を満たすシステムがより望ましいであろう。
発明の概要
本発明の局面は外科装置に関する。外科装置は、コンピュータシステム、およびユーザによって操作されて患者に対して処置を実施するように構成された外科デバイスを含む。コンピュータシステムは、患者の解剖学的構造と、外科デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて外科デバイスを制御して、ユーザに対する触覚誘導および外科デバイスのユーザ操作に対する制限の少なくとも一方を提供するための制御パラメータを具現化し、処置中の解剖学的構造の動きに応答して制御パラメータを調節するようにプログラムされている。
本発明の局面は外科装置に関する。外科装置は、コンピュータシステム、およびユーザによって操作されて患者に対して処置を実施するように構成された外科デバイスを含む。コンピュータシステムは、患者の解剖学的構造と、外科デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて外科デバイスを制御して、ユーザに対する触覚誘導および外科デバイスのユーザ操作に対する制限の少なくとも一方を提供するための制御パラメータを具現化し、処置中の解剖学的構造の動きに応答して制御パラメータを調節するようにプログラムされている。
本発明のもう一つの局面は外科装置に関する。外科装置は、ユーザによって操作されて患者に対して処置を実施するように構成された触覚デバイスを含む。触覚デバイスは、触覚デバイスを操作するユーザにフィードバックを供給するように構成された少なくとも一つのフィードバック機構を含む。外科装置はまた、ユーザが触覚デバイスを操作する間に、患者の解剖学的構造と、触覚デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて少なくとも一つのフィードバック機構を制御して、触覚誘導をユーザに提供するための制御パラメータを具現化するようにプログラムされたコンピュータシステムを含む。
本発明のさらに別の局面は外科的方法に関する。外科的方法は、患者の解剖学的構造の表現を生成すること、解剖学的構造および外科デバイスを解剖学的構造の表現と対応させること、外科デバイスを操作して、外科デバイスの部分を解剖学的構造の領域中で動かすことにより、患者に対して処置を実施すること、解剖学的構造の表現と、外科デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて外科デバイスを制御して、触覚誘導および外科デバイスの操作に対する制限の少なくとも一方を提供すること、および処置中の解剖学的構造の動きに応答して解剖学的構造の表現を調節することを含む。
本発明のさらに別の局面は外科的方法に関する。外科的方法は、患者の解剖学的構造の表現を生成すること、解剖学的構造および触覚デバイスを解剖学的構造の表現と対応させること、および触覚デバイスを操作して、触覚デバイスの部分を構造の領域中で動かすことにより、患者に対して処置を実施することを含み、触覚デバイスは、操作中にフィードバックを供給するように構成された少なくとも一つのフィードバック機構を含む。外科的方法はさらに、触覚デバイスの操作中、患者の解剖学的構造の表現と、触覚デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて少なくとも一つのフィードバック機構を制御して触覚誘導を提供することを含む。
本発明のさらに別の局面は関節置換法に関する。方法は、第一の骨の構造の表現を生成すること、第二の骨の構造の表現を生成すること、第一の骨に第一のインプラントを埋植するための骨調製をプラニングすること、外科ツールを操作して第一の骨を彫刻することにより、第一のインプラントを受けるように第一の骨を調製すること、第一の骨を調製したのち第二の骨に第二のインプラントを埋植するための骨調製をプラニングすること、および外科ツールを操作して第二の骨を彫刻することにより、第二のインプラントを受けるように第二の骨を調製することを含む。
本発明のさらに別の局面は外科プラニング法に関する。外科プラニング法は、骨の上の軟骨面の高さを検出すること、骨の表現および軟骨面の高さの表現を生成すること、および軟骨面の検出された高さに少なくとも部分的に基づいてインプラントを骨に埋植するための骨の調製をプラニングすることを含む。
本発明のさらに別の局面は外科プラニング法に関する。外科プラニング法は、関節の骨の表現を生成すること、関節を第一の位置に動かすこと、関節が第一の位置にあるとき、関節の第一の位置に対応する第一の点を特定すること、関節を第二の位置に動かすこと、関節が第二の位置にあるとき、関節の第二の位置に対応する第二の点を特定すること、および第一および第二の点に少なくとも部分的に基づいてインプラントを骨に埋植するための骨の調製をプラニングすることを含む。
本明細書に組み入れられ、その一部を構成する添付図面が本発明の態様を例示し、詳細な説明とともに、本発明の原理を説明する役割を果たす。
好ましい態様の詳細な説明
本発明の好ましい態様が図面に示されている。本明細書は主として膝関節を伴う整形外科的処置に関するが、本明細書に記載される主題は、身体の他の関節、たとえば肩、肘、手首、脊椎、股関節または足首ならびに他任意の整形外科および/または筋骨格インプラント、たとえば従来材料のインプラントおよびより新規なインプラント、たとえばオルトバイオロジックス、薬物送達インプラントおよび細胞送達インプラントにも適用可能であることが理解されよう。
本発明の好ましい態様が図面に示されている。本明細書は主として膝関節を伴う整形外科的処置に関するが、本明細書に記載される主題は、身体の他の関節、たとえば肩、肘、手首、脊椎、股関節または足首ならびに他任意の整形外科および/または筋骨格インプラント、たとえば従来材料のインプラントおよびより新規なインプラント、たとえばオルトバイオロジックス、薬物送達インプラントおよび細胞送達インプラントにも適用可能であることが理解されよう。
図1は、本発明の外科システム10の態様を示す。外科システム10は、コンピューティングシステム20、触覚デバイス30および追跡(または限局化)システム40を含む。動作中、外科システム10は、包括的な術中外科プラニングを可能にする。外科システム10はまた、ユーザが外科的処置を実施するときに、触覚誘導をユーザ(たとえば外科医)に提供したり、触覚デバイス30のユーザ操作を制限したりする。
コンピューティングシステム20は、外科システム10の動作および制御のためのハードウェアおよびソフトウェアを含む。図1に示すように、コンピューティングシステム20は、コンピュータ21、表示デバイス23および入力デバイス25を含む。コンピューティングシステム20はまた、カート29を含むこともできる。
コンピュータ21は、任意の公知のコンピューティングシステムであってもよいが、好ましくは、プログラム可能なプロセッサベースのシステムである。たとえば、コンピュータ21は、マイクロプロセッサ、ハードドライブ、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、入出力(I/O)回路および他任意の周知のコンピュータ構成部品を含むことができる。コンピュータ21は、好ましくは、種々の記憶装置(永続性およびリムーバブル)、たとえばポータブルドライブ、磁気記憶装置(たとえばフロッピーディスク)、固体記憶装置(たとえばフラッシュメモリカード)、光学記憶装置(たとえばコンパクトディスクまたはCD)および/またはネットワーク/インターネット記憶装置との使用に適合されている。コンピュータ21は、一つまたは複数のコンピュータ、たとえばパーソナルコンピュータ(たとえばIBM-PC互換性コンピュータ)またはWindows、MS-DOS、UNIXもしくは他の適当なオペレーティングシステムの下で作動するワークステーション(たとえばSUNまたはSilicon Graphicsワークステーション)を含むことができ、好ましくはグラフィカルユーザインタフェース(GUI)を含む。一つの態様では、コンピュータ21は、MAKO SURGICAL CORP.(商標)から市販され、製品番号0040TAS00001によって特定されるナビゲーションモジュールを含む。
表示デバイス23は、コンピューティングシステム20とユーザとの間の視覚的インタフェースである。表示デバイス23は、コンピュータ21に接続され、テキスト、イメージ、グラフィックスおよび/または他の視覚的出力を表示するのに適した任意のデバイスであることができる。たとえば、表示デバイス23は、標準的な表示画面(たとえばLCD、CRT、プラズマなど)、タッチスクリーン、装着型表示デバイス(たとえば眼鏡またはゴーグルのようなアイウェア)、プロジェクション表示デバイス、ヘッドマウント表示デバイス、ホログラフィック表示デバイスおよび/または他任意の視覚的出力装置を含むことができる。表示デバイス23は、コンピュータ21またはその近く(たとえば図1に示すカートの29の上)に配置することもできるし、コンピュータ21から離れたところに配置する(たとえば手術室の壁またはユーザが見るのに適した他の場所に据え付ける)こともできる。表示デバイス23は、好ましくは、ユーザが外科的処置中に必要に応じて表示デバイス23を位置決め/再位置決めすることができるように調節可能である。たとえば、表示デバイス23は、カート29またはユーザが見やすくするのに好適な他任意の場所に接続されている調節可能なアーム(図示せず)上に配置することができる。表示デバイス23は、医療処置に有用な任意の情報、たとえば従来のイメージング技術を使用してイメージデータセットから作り出された解剖学的構造のイメージ、グラフィカルモデル(たとえばインプラント、器具、解剖学的構造などのCADモデル)、追跡対象物(たとえば解剖学的構造、ツール、インプラントなど)のグラフィカル表現、デジタルまたはビデオイメージ、位置合わせ情報、較正情報、患者データ、ユーザデータ、計測データ、ソフトウェアメニュー、選択ボタン、ステータス情報などを表示するために使用することができる。
コンピューティングシステム20は、表示デバイス23に加えて、可聴フィードバックをユーザに提供するための音響装置(図示せず)を含むこともできる。音響装置は、コンピュータ21に接続され、音声を生じさせるための任意の公知の装置であることができる。たとえば、音響装置は、スピーカおよびサウンドカード、集積されたオーディオサポートを備えたマザーボードおよび/または外部サウンドコントローラを含むことができる。動作中、音響装置は、情報をユーザに運ぶように適合させることができる。たとえば、コンピュータ21は、音響装置に合図して音声、たとえば合成音声指示「終了(DONE)」を生じさせて、外科的処置ステップが完了したことを示させるようにプログラムされていてもよい。同様に、音響装置は、鋭敏な状態をユーザに警告する、たとえばビープ音を生じさせて外科切削ツールが軟組織の重要部分に近づきつつあることを示すために使用することもできる。
コンピューティングシステム20の入力デバイス25は、ユーザが外科システム10と通信することを可能にする。入力デバイス25は、コンピュータ21に接続され、ユーザがコンピュータに入力を提供することを可能にする任意の装置を含むことができる。たとえば、入力デバイス25は、公知の入力デバイス、たとえばキーボード、マウス、トラックボール、タッチスクリーン、タッチパッド、音声認識ハードウェア、ダイアル、スイッチ、ボタン、追跡可能なプローブ、フットペダル、遠隔コントローラ、スキャナ、カメラ、マイクおよび/またはジョイスティックであることができる。
コンピューティングシステム20(全部または一部)をカート29に配置して、空間を節約したり、コンピューティングシステム20の物理的設置面積を最小限にしたり、可搬性を可能にしたりしてもよい。カート29は、たとえば、公知のカート、プラットフォームまたは装備スタンドであることができ、好ましくは、コンピューティングシステム20の移動を容易にするように構成されている。たとえば、図1に示すように、カート29は、カート29を動かすことを可能にするための転動部材28(たとえば車輪またはキャスタ)を含むことができる。カート29はまた、カート29を所定位置に留めるための機構を含むこともできる。たとえば、カート29は、転動部材28のためのホイールロックまたはブレーキ、フットペダルロック装置、ジャッキスタンドおよび/またはカートを所定位置に留めるための任意の公知の機構を備えていることができる。このように、カート29は、コンピューティングシステム20を一つの場所から別の場所に動かし、外科ケースごとに必要に応じて位置決めし、保管および外科的処置中に所望の位置に留めることを可能にする。または、コンピューティングシステム20(全部または一部)を、外科的処置が実施される部屋に設置したり(たとえば壁またはワークステーションに据え付けたり)、離れた場所に設置したり、触覚デバイス30とで一体化したり、イメージング装置(たとえばコンピュータ断層撮影(CT)装置、磁気共鳴イメージング(MRI)装置、X線透視装置、超音波装置など)と一体化したり、医療システム(たとえば、外科的処置が実施される部屋の中の医療装備用カート)と一体化したりすることもできる。
コンピューティングシステム20は、外科システム10が外科プラニング、ナビゲーション、イメージ誘導および/または触覚誘導に関する種々の機能を実施することを可能にするように適合されている。たとえば、コンピュータ21は、一般的動作、データ記憶および検索、コンピュータ外科(CAS)、アプリケーション、触覚制御および/または他適当な任意の機能に関連するアルゴリズム、プログラミングおよびソフトウェアユーティリティを含むことができる。一つの態様では、コンピューティングシステム20は、MAKO SURGICAL CORP.(商標)から市販され、製品番号0040TAS00001によって特定されるナビゲーションモジュールで使用されるソフトウェアを含む。
一般的動作に関連するユーティリティは、外科システム10の全体的動作を可能にし、支持する基本的なコンピューティング機能を提供するように構成されている。一般的な動作ユーティリティは、たとえば、周知の機構、たとえば高速グラフィックス処理のための機能、入出力(I/O)装置を支持するための機能、病院ネットワークに接続するための機能、データベースライブラリ(たとえばインプラントおよび器具データベース)を管理するための機能、システムセキュリティのための機能(たとえばログイン機構、アクセス制限など)および/または外科システム10の全体動作を支持するのに有用な他任意の機能を含むことができる。
データ記憶および検索に関連するユーティリティは、種々の形態のデータ、たとえばイメージデータ(たとえば適当な任意のイメージングモダリティ、たとえばX線、コンピュータ断層撮影(CT)、磁気共鳴(MR)、ポジトロン放出断層撮影(PET)、単一光子放出コンピュータ断層撮影(SPECT)、超音波など)を使用して得られる二次元または三次元イメージデータセット)、アプリケーションデータ、インプラントデータ、器具データ、解剖学的モデルデータ、患者データ、ユーザ好みデータなどの記憶およびそれへのアクセスを可能にするように構成されている。データ記憶および検索ユーティリティは、該当するデータを記憶し、取り扱うのに適切な任意の機能を含むことができる。
コンピュータ外科に関連するユーティリティは、外科プラニング、ナビゲーションおよび基本的イメージ誘導外科的処置能力を可能にするように構成されている。たとえば、公知であるように、CASユーティリティは、イメージデータセットからイメージを生成し、表示するための機能、外科器具の先端の位置および軸の向きを決定するための機能ならびに患者およびイメージデータセットを追跡システム40の座標フレームに位置合わせするための機能を含むことができる。これらの機能は、たとえば、コンピューティングシステム20が、患者の解剖学的構造の一つまたは複数のイメージに重ねられた追跡される外科器具の仮想表現を表示デバイス23上に表示し、追跡される器具の仮想表現を外科的処置中にリアルタイムで更新することを可能にする。イメージデータセットから生成されたイメージは、二次元であることもできるし、三次元イメージデータセットの場合、たとえばイメージデータセットのセグメント化に基づく三次元再構成であることもできる。二つ以上のイメージが表示デバイス23上に示される場合、コンピューティングシステム20は、好ましくは、追跡される器具の表現を異なるイメージの間で協調させる。コンピューティングシステム20は、イメージデータセットから生成されるイメージに加えてまたはそれの代わりに、解剖学的モデル(たとえばCADモデル、線画、スケッチ、アニメーション、画家による描画、汎用またはモーフィングされたデータセットなど)を使用することもできる。
外科システム10のアプリケーションに関連するユーティリティは、外科プラニングおよびナビゲーションに関してユーザを援助するように構成された特定用途向けプログラムを含む。アプリケーションユーティリティに関連するプログラムは、種々の医療処置で使用するために構成することもできるし、特定の処置のためにカスタマイズすることもできる。たとえば、アプリケーションユーティリティは、一つまたは複数の整形外科的処置、たとえば膝全置換、膝部分置換、股関節置換、肩置換、肘置換、手首置換、足首置換、脊椎外科的処置および/または従来材料のインプラントおよびより新規なインプラント、たとえばオルトバイオロジックス、薬物送達インプラントおよび細胞送達インプラントをはじめとする整形外科および/または筋骨格インプラントの設置に関連するプログラムを含むことができる。アプリケーションユーティリティは、術前、術中および術後活動をはじめとする、外科プラニングおよびナビゲーションの種々の局面に向けられることができる。たとえば、アプリケーションユーティリティは、プラニングおよび立案に向けられたプログラムまたはプロセス、たとえばシステム初期化プロセス、プラニングプロセス、可視化プロセス、診断イメージングプロセス、位置合わせプロセスおよび較正プロセスを含むことができる。アプリケーションユーティリティはまた、対象物追跡およびシステム制御に向けられたプログラムまたはプロセス、たとえば座標変換プロセス、補間プロセス、ツールおよびパワー制御プロセス、解剖学的構造位置決めプロセス、モード制御プロセス、安全プロセス、妨害検出アルゴリズムおよび順運動学アルゴリズムを含むことができる。アプリケーションユーティリティは、触覚デバイス30に関するプログラムまたはプロセス、たとえば触覚力計算プロセス、触覚力マッピングプロセス、触覚対象物を作り出すためのプロセスおよび触覚レンダリングアルゴリズムを含むことができる。アプリケーションユーティリティはまた、外科的処置中にユーザと通信するためのプログラムおよびプロセス、たとえば外科的処置の特定のステップに対応するページまたはイメージを表示するためのソフトウェア、ある特定のタスクを実施するようにユーザを促すためのソフトウエアおよびユーザにフィードバック(たとえば、視覚的、聴覚的、感触的および/または力フィードバック)を提供するためのソフトウェアを含むことができる。
触覚制御に関するユーティリティは、触覚デバイス30の制御、性能、安定性および/または安定性に関する種々の機能を実行するように構成されている。たとえば、触覚制御ユーティリティは、リアルタイムオペレーティングシステム(RTOS)、運動制御ソフトウェア、触覚デバイス30の制御のための高頻度更新を作り出すためのハードウェアおよびソフトウェア、触覚デバイス30のフェイルセーフ動作を保証する(たとえばブレーキの制御、不静定センサのモニタリングなど)ためのソフトウェアおよび/または触覚デバイス30の性能、安定性および/または安全性を改善または促進するのに適した他任意のユーティリティを含むことができる。コンピュータ21が、触覚制御ユーティリティの動作要件を支持するのに十分なコンピューティングアーキテクチャを有するならば、触覚制御ユーティリティは、コンピューティングシステム20のコンピュータ21上で実行することができる。たとえば、触覚制御に関連するプロセスは通常、コンピュータ21上で稼働する他のプロセスよりも高い動作周波数要件を有する。一つの態様では、触覚制御プロセスは、約2kHzの周波数で作動する。もう一つの態様では、触覚制御プロセスは、約0.1kHz〜約10kHzの範囲の周波数で作動する。さらに別の態様では、触覚制御プロセスは、約500Hz〜約2,400Hzの範囲の周波数で作動する。対照的に、コンピュータ21は、それよりも実質的に低い周波数、たとえば約15Hz〜約20Hzの範囲の周波数で作動することができる。もう一つの態様では、コンピュータ21の周波数は、約2Hz〜約60Hzの範囲にあることができる。他の態様では、コンピュータ21の周波数は、触覚制御プロセスによって要求される動作周波数(たとえば約2kHz)に実質的に等しいこともできる。コンピュータ21が、触覚制御プロセスの動作を支持するのに十分なアーキテクチャを有さないならば、コンピューティングシステム20は、触覚制御ユーティリティの実行のためのコンピュータ31を含むことができる。好ましい態様では、コンピュータ31は、触覚デバイス30に統合または埋め込まれている。
コンピュータ31(図1に示す)は、コンピュータ21に似たものでもよいが、好ましくは、触覚デバイス30の指定の動作要件、たとえば高めの動作周波数の必要性を満足させるように構成されている。コンピュータ31は、一つまたは複数のコンピュータを含むことができる。一つの態様では、コンピュータ31は、Intel互換x86 3U CompactPCIシングルボードコンピュータであって、少なくとも1.6GHzのプロセッサクロック速度、少なくとも2Gバイトの不揮発性記憶装置(たとえばハードディスクドライブ、コンパクトフラッシュなど)、少なくとも256MBのRAM、400MHz以上のフロントサイドバス、少なくとも1Mバイトのレベル2キャッシュメモリおよびリアルタイムオペレーティングシステムを備えたものである。一つのそのような市販態様は、QNX Software Systems社のQNX 6.1(またはそれ以降)のオペレーティングシステムとで使用されるInova Computers GmbHのICP-PM-1004-DG-8Aコンピュータを含む。
触覚制御ユーティリティに加えて、コンピュータ31は、触覚デバイス30が追跡システム40からのデータを利用することを可能にするプログラムを含むことができる。たとえば、追跡システム40は、追跡対象物ポーズ(たとえば位置および向き)データを定期的に作り出すことができる。一つの態様では、対象物ポーズデータは、1秒に約30回または30Hzで作り出される。他の態様では、対象物ポーズデータは、より頻繁に、たとえば約500Hz以上で生成される。対象物ポーズデータは、追跡システム40からコンピュータ31に転送され(たとえばインタフェース100bを介して)、従来のやり方で、たとえば周知のようにノイズフィルタを使用してコンディショニングすることができる。さらには、追跡システム40が触覚制御プロセスよりも低い周波数で作動する態様では、対象物ポーズデータは、周知のように補間フィルタを使用してコンディショニングすることもできる。補間フィルタは、離散したデータサンプル間の隙間を補うことによって対象物ポーズデータを平滑化して、対象物ポーズデータをより高周波数の触覚制御プロセスで使用することを可能にする。コンピュータ31はまた、一つの空間の座標を別の空間の座標にマッピング(または変換)して空間的整合または一致を達成するための座標変換プロセスを含むこともできる。たとえば、外科システム10は、座標変換プロセスを使用して、追跡対象物(たとえば外科ツール、患者解剖学的構造など)の位置を、コンピュータ31および/またはコンピュータ21上で稼働するプロセスによって使用される座標システムにマッピングすることができる。周知のように、座標変換プロセスは、適当な任意の変換技術、たとえば剛体変換、非剛体変換、アフィン変換などを含むことができる。
複数のコンピュータ(たとえばコンピュータ21およびコンピュータ31)をコンピューティングシステム20に含めることの一つの利点は、各コンピュータを独立して構成することができることである。たとえば、コンピュータ21は、外科プラニングおよびナビゲーションのためにカスタマイズすることができ、コンピュータ31は、触覚デバイス30の性能、安定性および/または安全性を制御するためにカスタマイズすることができる。たとえば、コンピュータ31は、触覚制御システムに対する信頼しうる更新および触覚デバイス30のための安定な動作プラットフォームを維持するためのリアルタイムオペレーティングシステム(RTOS)を含むことができる。対照的に、コンピューティングシステム20は触覚デバイス30と同じ程度の安定性を要しないかもしれないため、コンピュータ21は非RTOSを含むことができる。したがって、コンピュータ21は、代わりに、外科ナビゲーションの特定の要件、たとえばグラフィックス処理を満たすようにカスタマイズすることができる。別個のコンピューティングアーキテクチャを有する複数のコンピュータのもう一つの利点は、触覚システムに関して限られた知識しか有さないソフトウェア開発者が、様々な触覚デバイスとともに使用することができるコンピュータ21のためのCASユーティリティを生成することができることである。同様に、CASに関して限られた知識しか有さないソフトウェア開発者が、特定の触覚デバイスの性能、安定性および/または安全性を向上させることを重視した触覚ユーティリティを生成することができることである。別個のコンピュータに対する代替として、触覚デバイス30およびコンピューティングシステム20のコンピューティング機能を、たとえば、一つのコンピュータ(たとえばコンピュータ21またはコンピュータ31)、イメージング装置(たとえばCTデバイス、MRIデバイス、X線透視デバイスなど)のコンピューティングシステムおよび/または病院コンピューティングシステム(たとえばネットワークシステム、外科的処置が実施される部屋の装備カートなど)に組み込むこともできる。
図1に示すように、コンピューティングシステム20は、インタフェース100aを介して触覚デバイス30に結合されている。インタフェース100aは、物理的インタフェースおよびソフトウェアインタフェースを含む。物理的インタフェースは、任意の公知のインタフェース、たとえば有線インタフェース(たとえばシリアル、USB、Ethernet、CANバスおよび/または他のケーブル通信インタフェース)であることもできるし、ワイヤレスインタフェース(たとえばワイヤレスEthernet、ワイヤレスシリアル、赤外線および/または他のワイヤレス通信システム)であることもできる。ソフトウェアインタフェースは、コンピュータ21および/またはコンピュータ31上に常駐することができ、コンピューティングシステム20が触覚デバイス30と通信し、触覚デバイスの動作を制御することを可能にする。一つの態様では、ソフトウェアインタフェースは、コンピューティングシステム20が触覚デバイス30にコマンドを発することを可能にするユーティリティを含む。たとえば、コンピュータ21は、触覚デバイス30を指定のモード(たとえば、アプローチモード、触覚モード、フリーモード、入力モード、ホールドモード)に入れることを要求するコマンドをコンピュータ31に送ることができる。応答して、コンピュータ31は、種々のパラメータをチェックして、要求されたモードへの進入が安全または他のかたちで受け入れ可能であることを検証し、触覚デバイス30を要求されたモードに入れる、または適切なエラーメッセージを戻すかのいずれかを実施するようにプログラムすることができる。
触覚デバイス30は、患者に対して処置を実施するためにユーザによって操作されて外科ツール50を動かすように構成された外科デバイスである。処置中、コンピューティングシステム20は、たとえば患者の解剖学的構造と、触覚デバイス30の部分(たとえば外科ツール50)の位置、向き、速度および/または加速度との間の関係に基づいて触覚デバイス30を制御するための制御パラメータを具現化する。一つの態様では、触覚デバイス30は、装置のユーザ操作に対して制限を加える(たとえば触覚デバイス30を物理的に操作するユーザの能力を制限することにより)ように制御される。もう一つの態様では、触覚デバイス30は、触覚誘導(すなわち感触および/または力フィードバック)をユーザに提供するように制御される。「触覚」とは、接触の感覚を指し、触覚学の分野は、感触および/または力フィードバックをオペレータに提供する人間対話式装置に関する研究を含む。感触フィードバックは一般に、感触、たとえば振動を含むが、力フィードバックとは、力(たとえば動きに対する抵抗)および/またはトルク(「ねじれ」とも知られる)の形態のフィードバックをいう。ねじれは、たとえば、力、トルクまたは力とトルクとの組み合わせの形態のフィードバックを含む。
コンピュータ外科(CAS)と結合した触覚デバイス30からの誘導が、外科医が外科行為(たとえば骨切削)および限局治療の送達(たとえば脳への)を活動的かつ正確に制御することを可能にする。たとえば、コンピューティングシステム20は、患者の解剖学的構造を表すデータ(たとえば術前CTイメージデータ、超音波データ)、解剖学的構造と対応する(またはそれに位置合わせた)仮想(または触覚)対象物、解剖学的構造に関するパラメータ(たとえば解剖学的構造の部分に関して規定された深さ)および/または解剖学的構造に基づいて制御パラメータを決定するようにプログラムされることができる。コンピューティングシステム20は、仮想対象物に対するツール50の位置、パラメータおよび/または解剖学的構造に基づいて触覚デバイス30を制御して、力、トルクおよび/または振動を発生させることができる。たとえば、ツール50は、解剖学的構造の表現と対応する仮想境界に貫入しないように拘束することもできるし、解剖学的構造の表現に関して規定されたパラメータを超えないように拘束することもできる。したがって、動作中、外科医が触覚デバイス30を操作してツール50を動かすとき、仮想経路を使用してツール50を指定の標的に誘導することもできるし、仮想境界を使用して切削形状を規定する、またはツール50が重要組織と接触することを防ぐこともできるし、既定のパラメータを使用してツール50の走行を制限する(たとえば既定の深さに)こともできる。コンピューティングシステム20はまた、処置中の物理的解剖学的構造の動きに応答して制御パラメータを調節する(たとえば、物理的解剖学的構造の検出された動きをモニタし、次いで検出された動きに応答して仮想対象物を調節することにより)ようにプログラムすることもできる。このように、外科システム10は、外科的処置部位の直接可視化を捕足する、またはそれに取って代わり、外科医の自然な感触および物理的な器用さを向上させ、従来の大きさの挿入口(たとえば長さ12インチ以上)から直径約1mmの挿入口を介して身体の種々の構造の標的化、修復および置換を容易にすることができる。
整形外科用途では、たとえば、触覚デバイス30は、骨の正しい彫刻に関して外科医を援助して、それにより、外科医を骨調製プロセスに密接に関与させながらも正確で繰返し可能な骨の切除を可能にすることにより、骨調製における不正確さ、予測不可能性および非繰返し性の問題に適用することができる。そのうえ、触覚デバイス30は、骨切削手術において外科医を触覚的に誘導するため、外科医の熟練レベルがさほど重要ではない。その結果、異なる程度の熟練および経験を有する外科医が正確で繰返し可能な骨切除を実施することができる。一つの態様では、たとえば、外科ツールが触覚デバイス30に結合されている。外科医は、ツールを把持し、動かしたり、触覚デバイス30を把持し、操作してツールを動かしたりすることにより、ツールを作動させて骨を彫刻することができる。外科医が切削手術を実施するとき、外科システム10は、ツールの場所を追跡し(追跡システム40によって)、大部分の場合、外科医が作業空間中でツールを自由に動かすことを可能にする。しかし、ツールが、患者と重ね合わされた仮想境界に近接すると、外科システム10は、触覚デバイス30を制御して、外科医がツールを仮想境界に貫入しないよう拘束しようとする触覚誘導を提供する。たとえば、仮想境界は触覚対象物によって規定することができ、触覚誘導は、触覚対象物にマッピングされ、仮想境界の方向へのさらなるツール動に対する抵抗として外科医が感じる出力ねじれ(すなわち、力および/またはトルク)を含むことができる。したがって、外科医は、あたかもツールが物理的な物体、たとえば壁に当たったかのような感覚を受けることができる。このように、仮想境界は仮想切削誘導として機能する。したがって、触覚デバイス30は、仮想境界に対するツールの場所に関する情報を外科医に通信し、実際の切削プロセスで物理的誘導を提供する。触覚デバイス30はまた、たとえば、全体が参照により本明細書に組み入れられる米国特許出願第10/470,314号(公開番号US2004/0128026)に記載されているように、外科ツールを操作するユーザの能力を制限するように構成することもできる。
触覚デバイス30は、感触フィードバック(たとえば振動)および/または力フィードバック(たとえばねじれ)をユーザに伝達するように適合された機械的または電気機械的装置を含むことができる。触覚デバイス30は、ロボットシステム、非ロボットシステムまたはロボットシステムと非ロボットシステムとの組み合わせであることができる。たとえば、触覚デバイス30は、2003年3月6日に出願され、2004年2月5日に公開された米国特許出願第10/384,072号、2003年3月6日に出願され、2004年2月19日に公開された米国特許出願第10/384,077号、2003年3月6日に出願され、2004年2月19日に公開された米国特許出願第10/384,078号、2003年3月6日に出願され、2004年2月19日に公開された米国特許出願第10/384,194号、2003年7月16日に出願され、2004年6月3日に公開された米国特許出願第10/621,119号および/または2005年2月22日に出願された米国特許仮出願第60/655,642号に記載されているような触覚デバイスを含むことができる。上記で参照した公開出願それぞれは参照により全体として本明細書に組み入れられる。
一つの態様では、触覚デバイス30はロボットを含む。この態様では、図2Aに示すように、触覚デバイス30は、ベース32、アーム33、エンドエフェクタ35およびユーザインタフェース37を含む。触覚デバイス30はまた、プラットフォーム39を含むことができる。
ベース32は、触覚デバイス30の基礎を提供する。図2に示すように、ベース32はアーム33を支持し、また、触覚デバイス30の他の構成部、たとえばコントローラ、増幅器、アクチュエータ、モータ、伝達構成部品、クラッチ、ブレーキ、電源、センサ、コンピュータハードウェアおよびまたは他任意の周知のロボット構成部品を収容および/または支持することもできる。ベース32は、適当な任意の金属および/または合成材料、たとえばアルミニウムまたはプラスチックでできていることができ、好ましくは、ベース32内に収容された構成部品へのアクセスを提供するための脱着自在パネルを含む。
アーム33はベース32の上に配置され、触覚デバイス30をユーザが操作することを可能にするように適合される。アーム33は、適当な任意の機械的または電気機械的構造であることができるが、好ましくは、四つ以上の自由度(または運動軸)を有する関節アーム、たとえば現在Barrett Technology, Inc.によって製造されている「Whole-Arm Manipulator」または「WAM(商標)」として知られるロボットアームである。一つの態様では、アーム33は、図2Aに示すように、第一のセグメント33a、第二のセグメント33bおよび第三のセグメント33cを含む。第一のセグメント33aと第二のセグメント33bとは、第一のジョイント33d(たとえばショルダージョイント)で接続され、第二のセグメント33bと第三のセグメント33cとは、第二のジョイント33e(たとえばエルボージョイント)で接続されている。図2Bに示すように、アーム33は、たとえば、第一の自由度DOF1、第二の自由度DOF2、第三の自由度DOF3および第四の自由度DOF4を有することができる。したがって、セグメント33a、33bおよび33cならびにジョイント33eおよび33dは、種々の位置またはポーズに操作することができる関節機械的リンクを形成する。アーム33は、多様な処置、たとえば整形外科、神経科および/または外傷処置における使用に適切であり、かつ触覚デバイス30の移動を可能にし、手術室における触覚デバイス30の効率的な位置決めを可能にするのに十分にコンパクトであるようにサイズ決定される。たとえば、アーム33は、人の腕よりもわずかに大きくサイズ決定されることができる。一つの態様では、アーム33は約1mのリーチを有し、セグメント33bおよび33cの直径は約89mmである。アーム33はまた、触覚デバイス30の構成部品、たとえば計器、電線、モータ、伝達構成部品、コントローラ、アクチュエータ、増幅器、ブレーキ、クラッチ、電源、センサおよび/またはコンピュータハードウェアを収容および/または取り回しするように適合されていることもできる。たとえば、セグメント33a、33bおよび33cは、内部通路および/または中空部分を含むことができ、その中に触覚デバイス30の構成部品を配置することができる。セグメント33a、33bおよび33cは、適当な任意の金属および/または合成材料、たとえばアルミニウムまたはプラスチックでできていることができ、好ましくは、アーム33内に収容された構成部品へのアクセスを可能にするための脱着自在パネルおよび/またはアクセスポートを含む。
アーム33の器用さは、たとえば、さらなる自由度を加えることによって向上させることができる。たとえば、アーム33はリスト36を含むことができる。図2Aに示すように、リスト36は、アーム33に(たとえば第三のセグメント33cの遠位端に)配置することができ、アーム33の自由度DOF1、DOF2、DOF3およびDOF4を補強するための一つまたは複数の自由度を含む。たとえば、図2Bに示すように、リスト36は自由度DOF5を含むことができる。一つの態様では、リスト36は二つの自由度を含み、アーム33の自由度DOF3が除かれる。リスト36はまた、Barrett Technology, Inc.製の1自由度または3自由度WAM(商標)リストであることもできる。
アーム33は、ユーザが触覚デバイス30を操作する間に触覚デバイス30が情報をユーザに通信することを可能にするフィードバック機構を組み込む。動作中、コンピューティングシステム20がフィードバック機構を制御して、感触および/または力フィードバックを作り出し、それをユーザに運んで、たとえば仮想対象物に対する触覚デバイス(たとえばツール50)の部分の場所、解剖学的構造に関するパラメータおよび/または解剖学的構造に関する情報を通信する。フィードバック機構は、好ましくは、力、トルクおよび/または振動を生じさせるように構成されている。フィードバック機構は、一つまたは複数のアクチュエータ(たとえばモータ)および機械的伝達装置を含む駆動システム(図示せず)を組み込むことができる。アクチュエータは、好ましくは、触覚デバイス30のユーザ操作に対抗する力フィードバックを供給するように適合されている。アクチュエータは、たとえば、正弦波整流された電流増幅器/コントローラによって駆動されるサマリウムコバルトブラシレスモータ、空間ベクトル整流された電流増幅器/コントローラによって駆動されるネオジム鉄ブラシレスモータおよび/またはロボットシステムにおける使用に適した他任意の適当なモータおよび整流スキームを含むことができる。伝達装置は、たとえば、引張り要素駆動システム(たとえばケーブル、スチールテープまたはポリマー腱伝達装置)、直接駆動システムおよび/またはロボットシステムにおける使用に適した他任意の低静止摩擦および低バックラッシュ伝達システムであることができる。例示的な態様では、駆動システムは、高速ケーブル伝達装置およびゼロバックラッシュ低摩擦ケーブル式差動装置を含む。一つの態様ではケーブル伝達装置は、Barrett Technology, Inc.製のWAM(商標)ロボットアームで使用されるケーブル伝達装置および/または全体が参照により本明細書に組み入れられる米国特許第4,903,536号に記載されたケーブル伝達装置であってもよい。ケーブル伝達装置の一つの利点は、ケーブル伝達装置がアーム33の本体の大部分を外科的処置部位から十分に離して配置することを可能にして、ユーザが外科的処置中にアーム33の構造または構成部品によって障害または妨害を受けないようにするということである。駆動システムは、好ましくは、低い摩擦、低い慣性、高い剛性、大きなバンド幅、ゼロに近いバックラッシュ、力忠実度および/またはバックドライブ性のために構成され、また、ユーザがアーム33の重さを感じない状態にアーム33を維持しやすくするように適合させることもできる。たとえば、一つの態様では、アーム33は、実質的に均衡した構造を有することができる。アームにおける任意の不均衡(たとえば重力効果による)は、たとえば、駆動システムを制御して不均衡状態を修正するための力および/またはトルクを発生させることによって対処することができる。駆動システムのモータもまた、触覚デバイス30が感触フィードバックをユーザに提供することができるよう、揺動または振動を生じさせるように構成されることができる。フィードバック機構はまた、駆動システムに加えて、振動を生じさせるためのモータとは別個の振動装置、たとえばオシレータを含むことができる。
アーム33は、アーム33の位置および向き(すなわちポーズ)を決定するための位置センサ(図示せず)を含むことができる。位置センサは、対象物の位置を決定または追跡するための任意の公知のセンサ、たとえばエンコーダ、レゾルバ、電位差計、線形可変差動変圧器(LVDT)、チルトセンサ、ヘディング(コンパス)センサ、重力方向センサ(たとえば加速度計)、光学センサ(たとえば赤外線、光ファイバまたはレーザセンサ)、磁気センサ(たとえば磁気抵抗または磁気ひずみセンサ)および/または音響センサ(たとえば超音波センサ)を含むことができる。位置センサは、触覚デバイス30上または内の適当な任意の場所に配置することができる。たとえば、位置センサは、ジョイント33dおよび33eに据え付けられたエンコーダおよび/または各モータのシャフトに据え付けられたレゾルバを含むことができる。アーム33のポーズはまた、以下に記す追跡システム40を含む、外科処置的環境における使用に適した任意の追跡システム、たとえば光学、磁気、無線または音響追跡システムを使用して追跡することができる。
アーム33は、位置センサに加えて、不静定センサ(図示せず)を含むことができる。不静定センサは、位置センサに似ており、触覚デバイス30の動作中に不具合および/または不安定さを検出するために使用することができる。たとえば、不静定センサの出力と位置センサの出力との差が、駆動システムおよび/または位置センサに関する問題を示すことができる。不静定センサはまた、触覚デバイス30の制御システムが駆動システムおよび/またはアーム33の構成部品における撓みの影響を減少させるかまたは取り除くことを可能にするデータを提供することにより、アーム33のポーズを決定する際の精度を改善することもできる。不静定センサは、アーム33がケーブル伝達装置を含む場合に特に有利である。
エンドエフェクタ35は触覚デバイス30の作動端を含み、ユーザが外科的処置に関連する種々の行為を実施することを可能にするように構成されている。たとえば、一つの態様では、エンドエフェクタ35は、アーム33とツール50との間のアダプタまたはカップリングとして機能する。一つのツール50を別のツールと交換することにより、ユーザは、異なる行為、たとえば位置合わせ、骨調製、計測/検証および/またはインプラント設置のために触覚デバイス30を使用することができる。一つの態様では、図2Aに示すように、エンドエフェクタ35は、アーム33に接続されるように適合された近位部および装置またはツール50を含む遠位部を含む。ツール50は、たとえば、外科ツール(たとえばバー、ドリル、プローブ、鋸子など)、医療装置、顕微鏡、レーザ距離計、カメラ、ライト、内視鏡、超音波プローブ、潅注装置、吸引装置、放射線治療装置および/または外科、外科プラニングおよび/または外科ナビゲーションに有用な他任意の構成部品であることができる。エンドエフェクタ35は、好ましくは、ツール50と脱着自在に係合して、ユーザが特定の処置に適切なツール50を設置し、必要に応じてツールを交換することができるように構成されている。たとえば、ツール50は、従来のハードウェア(たとえばねじ、ピン、クランプなど)、キー接続、戻り止め、ねじコネクタ、締り嵌めなどによってエンドエフェクタ35に留めることができる。または、ツール50は、エンドエフェクタ35の一体部分であって、ユーザがツール交換を望むときエンドエフェクタ35全体を交換してもよい。ツール50は、好ましくは、アーム33に対して移動可能であって、ユーザがツール50の正確な位置を制御することを可能にする。たとえば、ツール50は、軸C-C(図2Cに示す)を中心に回旋可能であることができる。一つの態様では、図3に示すように、ツール50は、エンドエフェクタ35の遠位部の開口部52に受けられたツールホルダ51を含む。ツールホルダ51は、公知の方法で、たとえばキーまたはねじ接続で開口部に留めることができる。ツールホルダ51は、ツール50(たとえば球面バーの先端)と解放自在に係合するように構成されており、電力(または空気力)をツール50に供給するためのパワーライン(図示せず)を含むことができる。一つの態様では、ツールホルダ51は、ツール50(たとえばバー、鋸子または他の電動ツール)を駆動するためのモータを含む。ツール50は、単一のツールであってもよいし、複数のツールを含んでもよい。たとえば、ツール50は、骨切削のための球面バーならびに切削手術中に外科的処置部位を清浄するための吸引および潅注ラインを含むことができる。一つの態様では、ツール50およびツールホルダ51は、現在ANSPACH(登録商標)によって製造され、製品番号EMAX2(モータ)、EMAX2-FP(フットペダル)、SC2000(コンソール)、L-2SB(2mmの溝付きボール)、L-4B(4mmの溝付きボール)、L-6B(6mmの溝付きボール)およびL-1R(12)(1.2mm×12.8mm溝付きルータ)を有する電動空冷式外科ツールを含む。エンドエフェクタ35は、任意の従来のやり方でアーム33の遠位端に機械的かつ電気的に接続されており、パワー、圧縮気、吸引、潅注などをツール50に供給するための一つまたは複数のラインを含むことができる。
エンドエフェクタ35はまた、ユーザが情報を外科システム10に入力することを可能にするように構成されることもできる。たとえば、一つの態様では、エンドエフェクタ35は、入力デバイス、たとえばジョイスティックとして機能するように適合されている。この態様では、エンドエフェクタ35は、ジョイスティック機能を可能にするための一つまたは複数の自由度を含む。図3に示すように、エンドエフェクタ35は、エンドエフェクタ35が軸A-Aを中心に回旋することを許す一つの自由度を有することができる。したがって、ユーザは、エンドエフェクタ35を軸A-Aを中心に回旋させて(またはねじって)外科システム10に入力を提供することができる。ユーザがエンドエフェクタ35を回旋させると、回旋の量および方向を示す対応するエンコーダ信号がコンピュータ21および/またはコンピュータ31に中継されることができる。たとえば、軸A-Aを中心に第一の方向に指定の度数だけ回旋させると、「次」(たとえば処置における別のステップまたは別のアプリケーションに進む、表示デバイス23上の画面を後続の画面に進めるなど)を示すことができ、軸A-Aを中心に第二の方向に指定の度数だけ回旋させると、「戻る」(処置における直前のステップまたは別のアプリケーションに戻る、表示デバイス23上の直前の画面に戻るなど)を示すことができる。エンドエフェクタ35(および/またはアームの他の部分33)もまた、さらなる入力を可能にするさらなる自由度を含むことができる。エンドエフェクタ35(および/または触覚デバイス30の他任意の部分)は、ジョイスティック機能に加えて、入力を可能にするための一つまたは複数のボタン、ダイヤルおよび/またはスイッチを含むことができる。このように、ユーザにとって好都合な入力機構を設けることにより、外科システム10の効率および使いやすさが改善される。
触覚デバイス30のユーザインタフェース37は、ユーザと触覚デバイス30との間の物理的相互作用を可能にする。たとえば、インタフェース37は、ユーザが、触覚デバイス30から触覚誘導を受けるのと同時にインタフェース37と物理的に接触し、ツール50を操作することができるように構成されることができる。インタフェース37は、触覚デバイス30に固着された別個の構成部品(たとえば取っ手またはハンドグリップ)であってもよいし、単に触覚デバイス30の既存構造の一部であってもよい。たとえば、インタフェース37は、アーム33、エンドエフェクタ35および/またはツール50と対応していることができる。インタフェース37が触覚デバイス30に固着されている、またはその一体部分であるため、ユーザがインタフェース37と接触しているとき、触覚デバイス30によって出力される感触または力フィードバックは直接ユーザに伝達される。一つの態様では、図2Aに示すように、ユーザインタフェース37は、ユーザがアーム33の構造を変化させることを可能にするように構成された第一の部分(たとえばアーム33のエルボージョイント33e)およびユーザがツール50をアーム33に対して動かすことを可能にするように構成された第二の部分(たとえばツール50および/またはアーム33の遠位端、たとえばエンドエフェクタ35)を含む。動作中、図2Cに示すように、ユーザ160が一方の手を第一の部分(たとえばエルボージョイント33e)に置き、他方の手で第二の部分(たとえばツール50)を把持する。次いで、ユーザ160は、アーム33を操作し、ツール50を動かすのに必要な力を加える。このようにして、ユーザは、インタフェース37を操作してアーム33の構造を変化させると同時にツール50をアーム33に対して動かす。触覚デバイス30と二つの場所(たとえばツール50およびエルボージョイント33e)で接触することは、有利にも、触覚デバイス30の大まかな調整および微調整の両方を可能にする。たとえば、ユーザ160は、アーム33の大まかな構成(たとえばエルボージョイント33eを介して)およびツール50の先端の位置の微細な(精密)場所(たとえばツール50をアーム33に対して動かすことにより)の両方を同時に制御することができ、それが、高度な精度および器用さを要する行為を実施する、たとえばツール50を外科的処置部位に移動させ、骨を彫刻する際に重要である。
ユーザインタフェース37は、好ましくは、ユーザがインタフェース37を容易に把持することができるようなサイズである。たとえば、インタフェース37の直径は、ユーザの手および/または指によって把持しやすい直径に一致することができる。インタフェース37の直径は、たとえば、約5mm〜約75mmの範囲であることができる。一つの態様では、ユーザインタフェース37はエンドエフェクタ35と一体化している。この態様では、エンドエフェクタ35は、ユーザによる把持に適した直径を有する一つまたは複数の部分を含む。たとえば、エンドエフェクタ35の近位部の直径は約43mmであることができ、エンドエフェクタ35の遠位部の直径は約36mmであることができ、ツールホルダ51の直径は約19mmであることができ、ツール50の直径は約6mmであることができる。一つの態様では、エンドエフェクタ35の遠位部は、ユーザの人差し指をかけるためのグリップを含む。インタフェース37は、場合によっては、異なる手のサイズのユーザを受け入れるためのテーパ部を含むこともできる。インタフェース37はまた、ユーザの手および/または指の外形と合致するように付形または成形されていてもよく、たとえばユーザの快適さを高め、滑りを防止する(たとえばユーザの手袋が濡れていたり血が付いていたりするとき)ための人間工学的形体を含むこともできる。
触覚デバイス30の一つの利点は、ユーザインタフェース37が有利にも、触覚デバイス30がユーザと協働してツール50を保持することを可能にすることである。対照的に、遠隔外科手術システムで使用される触覚デバイスは、ツールを独占的に保持する「スレーブ」装置および外科医がツールを制御するときに介する「マスタ」装置を有する。マスタ装置は通常、外科医が離れたところから外科的処置を実施することを許す、またはより人間工学的な作業位置/環境を外科医に提供するために、外科的処置部位から離れている。したがって、触覚遠隔手術システムを用いると、外科医は、遠隔手術システムだけに頼って外科的処置部位を見、外科的処置を実施しなければならないという欠点がある。対照的に、外科システム10を用いると、ユーザが触覚デバイス30から誘導を受けながらツール50を動かすとき、ユーザは、物理的かつ視覚的に外科的処置部位に接近したままでいられる。
触覚デバイス30のもう一つの利点は、触覚デバイス30がそれ自体で自律的に動くことを意図していないことである。対照的に、整形外科的関節置換に使用される自律式外科ロボットシステムは、高速バーを用いて骨切削を自律的に実施する。外科医はロボットの進行をモニタし、必要ならば介入することができるが、外科医が処置を完全に制御するわけではない。しかし、触覚デバイス30を用いると、外科医(ロボットではなく)がツール50を操作する。したがって、外科医は、切削手術の制御を維持し、触覚デバイス30から誘導または援助を受けるだけである。その結果、外科医は、制御を触覚デバイス30のロボットに譲る必要がなく、それが処置中の外科医の快適さを増す。
コンピューティングシステム20に関連して先に記載したように、触覚デバイス30はコンピュータ31を含むことができる。コンピュータ31は、外科システム10上の好都合な任意の場所、たとえば触覚デバイス30が配置されるスタンドまたは装備キャビネット(たとえば図1に示すようなプラットフォーム39)の上または中に収容することができる。コンピュータ31は、コンピューティングシステム20のコンピュータ21に加えて、またはそれの代わりに使用することもできる。触覚デバイス30(コンピュータ31を含む)はまた、他任意のコンピュータ、ロボットおよび/または触覚デバイスにおける使用に適した電子または電気機械構成部品、たとえばアーム33上のエンコーダおよび不静定センサから情報を受けるためのコントローラ、モータ、クラッチ、ブレーキへのパワーを提供するための増幅器、フェールセーフブレーキのための電源および/または触覚デバイス30を所望の動作モード(たとえばアプローチモード、触覚モード、フリーモード、入力モード、ホールドモード)に入れるためのモードスイッチを含むこともできる。
触覚デバイス30は、好ましくは、他の装備または手術室の周囲でのユーザの動きを妨げることなく手術室に収まることができるようなサイズである。たとえば、一つの態様では、触覚デバイス30(アーム33が保管または格納位置にある状態)の高さは約1.4mであり、触覚デバイス30の設置面積は約0.25m2〜約0.6m2の範囲である。もう一つの態様では、設置面積は約0.09m2〜0.13m2の範囲である。同様に、触覚デバイス30は、好ましくは、触覚デバイス30を一つの場所から別の場所まで比較的容易に動かすことを可能にする重さである。たとえば、一つの態様では、触覚デバイス30の重さは、約100ポンド〜約500 lbsの範囲である。もう一つの態様では、触覚デバイス30の重さは、約50ポンド〜約200 lbsの範囲である。触覚デバイス30は、好ましくは、移動しやすさのため、および触覚デバイス30を外科的処置にとって最適に位置決めすることを可能にするため、低い重さおよび小さなサイズを有する。たとえば、触覚デバイス30(またはその任意の部分)は、手術室の床に載る、手術台(または手術室中の他の装備)に据え付けられる、または患者の骨に固着されるように構成することができる。
図1に示すように、触覚デバイス30(またはその部分、たとえばロボット)は、プラットフォーム39に据え付けることができる。プラットフォーム39は、任意の公知のプラットフォーム、カートまたは装備スタンドであることができ、装備ラックおよび/またはキャビネット(たとえばコンピュータ31を収容するための)を含むことができ、好ましくは、触覚デバイス30を移動させやすくするように構成されている。たとえば、プラットフォーム39は、プラットフォーム39を動かすことを可能にするための転動部材38(たとえば車輪またはキャスタ)を含むことができる。プラットフォーム39はまた、プラットフォーム39を所定位置に留めるための機構を含むこともできる。たとえば、プラットフォーム39は、転動部材38のためのホイールロックまたはブレーキ、フットペダルロック装置、ジャッキスタンドおよび/またはプラットフォームもしくはカートを所定位置に留めるための他任意の公知の機構を備えていることができる。一つの態様では、図2Aに示すように、プラットフォーム39は、機構39bによって格納位置(図2Aに示す)と展開位置(図示せず)との間で作動させることができる強固な足39aを含む。プラットフォーム39を一つの場所から別の場所に移動させるためには、強固な足39aを格納してプラットフォーム39が転動部材38に載って走行することができるようにする。プラットフォーム39を所定位置に留めるためには、強固な足39aを展開してプラットフォーム39が強固な足39aの上に載るようにする。または、強固な足39aをプラットフォーム39に固定し、転動部材38を展開可能/格納可能にしてもよい。このように、プラットフォーム39は、触覚デバイス30を一つの場所から別の場所に動かし、外科ケースごとに必要に応じて位置決めし、保管および外科的処置中に所望の位置に固定することを可能にする。または、触覚デバイス30(全部または一部)を、外科的処置が実施される部屋に設置したり(たとえば床、壁またはワークステーションに据え付けたり)、コンピューティングシステム20と一体化したり、イメージング装置(たとえばCT装置、X線透視装置、超音波装置など)と一体化したり、医療システム(たとえば、外科的処置が実施される部屋の中の医療装備用カート)と一体化したりすることもできる。
図1に示すように、触覚デバイス30とコンピューティングシステム20とは、好ましくは別個のユニットとして構成される。または、触覚デバイス30(全部または一部)とコンピューティングシステム20(全部または一部)とを単一のユニットに統合してもよい。触覚デバイス30およびコンピューティングシステム20(またはその部分)はまた、他の装備、たとえばイメージング装置(たとえばCT装置、MRI装置、X線透視装置、超音波装置など)と一体化したり、病院システム(たとえば、外科的処置が実施される部屋の中の医療装備用カート)と一体化したりすることもできる。一つの態様では、コンピュータ21およびコンピュータ31が触覚デバイス30のプラットフォーム39に配置され、コンピューティングシステム20の表示デバイス23および入力デバイス25が軽量のスタンドに配置されて、外科システム10から情報を見、外科システム10に情報を入力するユーザの能力を促進する。
外科システム10の追跡(または限局化)システム40は、外科的処置中に一つまたは複数の対象物のポーズ(すなわち位置および向き)を決定して対象物の動きを検出するように構成されている。たとえば、追跡システム40は、検出デバイスの基準座標フレームに対する対象物のポーズを得る検出デバイスを含むことができる。対象物が基準座標フレームの中で動くと、検出デバイスは、対象物のポーズを追跡して対象物の動きを検出する(または、外科システム10がそれを決定することを可能にする)。その結果、コンピューティングシステム20は、追跡対象物の動きに応答して制御パラメータを調節する(すなわち仮想対象物を調節することにより)ことができる。追跡対象物は、たとえば、ツール/器具、患者の解剖学的構造、インプラント/補てつ具および外科システム10の構成部品を含むことができる。追跡システム40からのポーズデータを使用して、外科システム10はまた、ある空間の座標を別の空間の座標に位置合わせて空間的整列または一致を達成することができる(たとえば周知のような座標変換プロセスを使用して)。物理的空間中の対象物は、適当な任意の座標システム、たとえばコンピュータ21および/またはコンピュータ31上で稼働するプロセスによって使用される座標システムに位置合わせすることができる。たとえば、外科システム10は、追跡システム40からのポーズデータを使用して、物理的解剖学的構造およびツール50(および/または触覚デバイス30)を解剖学的構造の表現(たとえば表示デバイス23上に表示されたイメージ)と対応させることができる。外科システム10は、追跡対象物および位置合わせデータに基づき、たとえば(a)解剖学的構造のイメージと該当する解剖学的構造との間の空間的関係および(b)該当する解剖学的構造とツール50との間の空間的関係を決定して、コンピューティングシステム20がツール50の仮想表現をイメージに重ね合わせる(そして、絶えず更新する)ことができるようにする。その場合、仮想表現とイメージとの間の関係は、ツール50と実際の解剖学的構造との間の関係と実質的に同一である。さらには、ツール50だけでなく該当する解剖学的構造をも追跡することにより、外科システム10は、外科的処置中の該当する構造の動きを補正することができる(たとえば、検出した動きに応答して仮想対象物を調節することにより)。
位置合わせは、任意の公知の位置合わせ技術、たとえばイメージ・イメージ位置合わせ(たとえば、同じタイプまたはモダリティのイメージ、たとえばX線透視イメージまたはMRイメージを位置合わせするモノモード位置合わせおよび/または異なるタイプもしくはモダリティのイメージ、たとえばMRIおよびCTを位置合わせするマルチモーダル位置合わせ)、イメージ・物理的空間位置合わせ(たとえば、従来のイメージング技術によって得られる患者の解剖学的構造のデジタルデータセットを患者の実際の解剖学的構造と位置合わせするイメージ・患者位置合わせ)および/またはイメージ・イメージとイメージ・物理的空間との組み合わせ位置合わせ(たとえば術中場面に対する術前CTおよびMRIイメージの位置合わせ)を含むことができる。
追跡システム40は、外科システム10が患者の該当する解剖学的構造のポーズおよびツール50(および/または触覚デバイス30)のポーズを絶えず決定(または追跡)することを可能にする任意の追跡システムであることができる。たとえば、追跡システム40は、外科的環境における使用に適する、非機械的追跡システム、機械的追跡システムまたは非機械的追跡システムと機械的追跡システムとの任意の組み合わせを含むことができる。非機械的追跡システムは、光学(または視覚的)、磁気、放射線または音響追跡システムを含むことができる。そのようなシステムは一般に、検出デバイスによって検出可能であり、追跡対象物に取り付けられるように構成されている、もしくは追跡対象物の固有部分である、特別に認識可能な追跡可能要素(またはトラッカ)を既定の座標空間中で位置決めするように適合された検出デバイスを含む。たとえば、追跡可能要素は、追跡可能要素が追跡対象物に取り付けられている場合に特有の幾何学的配置および追跡対象物に対する既知の幾何学的関係を有するマーカのアレイを含むことができる。既知の幾何学的関係は、たとえば、追跡可能要素と追跡対象物の終点および軸との間の既定の幾何学的関係であってもよい。したがって、検出デバイスは、少なくとも一部には、マーカの形状(特有であるならば)、軸の向きおよびマーカの位置から演繹される基準枠内の終点の場所から特定の追跡対象物を認識することができる。マーカは、任意の公知のマーカ、たとえば、追跡対象物の外因性マーカ(基準)および/または内因性特徴を含むことができる。外因性マーカとは、患者に取り付けられる人工物(たとえば、皮膚に固着されるマーカ、骨に埋植されるマーカ、定位的フレームなど)であり、検出デバイスに見え、検出デバイスによって正確に検出可能であるように設計されている。内因性特徴とは、認識可能なマーカとして機能するのに十分に規定され、識別可能である、追跡対象物の突出した正確に位置付け可能な部分である(たとえば、ランドマーク、解剖学的構造の輪郭、形、色または他任意の十分に認識可能な視覚的指標)。マーカは、適当な任意の検出法、たとえば周知であるような光学、電磁、放射線または音響法を使用して位置付けすることができる。たとえば、赤外線を感知する固定立体カメラ対を有する光学追跡システムを使用して、赤外線を能動的に放出するマーカ(たとえば発光ダイオードまたはLED)または赤外線を受動的に放出するマーカ(たとえば赤外線を反射する表面を有する球面マーカ)を追跡することができる。同様に、磁気追跡システムは、追跡対象物に組み込まれた小さなコイルによって感知される、空間的に変化する磁場を放出する固定磁場発生器を含むことができる。
一つの態様では、図1に示すように、追跡システム40は非機械的追跡システムを含む。この態様では、非機械的追跡システムは、検出デバイス41と、追跡対象物に配置され(またはその中に組み込まれ)、検出デバイス41によって検出されるように構成された少なくとも一つの追跡可能要素(またはトラッカ)とを含む光学追跡システムである。図1に示すように、検出デバイス41は、たとえば、赤外線を感知し、外科的処置が実施される手術室中に配置可能である立体カメラ対を含むことができる。トラッカは、追跡対象物に確実かつ安定に固着されるように構成され、追跡対象物に対して既知の幾何学的関係を有するマーカのアレイ(たとえば図4のアレイS1)を含む。マーカは、能動的であることもできるし(たとえば発光ダイオードまたはLED)、受動的であることもでき(たとえば反射性球体、格子パターンなど)、好ましくは、特有の形状(たとえば、マーカの特有の幾何学的配置)または、能動的な有線マーカの場合、特有の発射パターンを有する。動作中、検出デバイス41がマーカの位置を検出し、特有の形状(または発射パターン)および追跡対象物に対する既知の幾何学的関係が、外科システム10が、マーカの位置に基づいて追跡対象物のポーズを算出することを可能にする。
非機械的追跡システムは、検出デバイス41がマーカを光学的に「見る」能力に依存するため、検出デバイス41およびトラッカは、外科的処置中に検出デバイス41とマーカとの間に障害のない視線が維持されるように位置決めされるべきである。防護手段として、外科システム10は、好ましくは、検出デバイス41が処置中にトラッカを検出することができないならば(たとえば、検出デバイス41と一つまたは複数のマーカとの間の視線が遮られている場合および/またはマーカの反射が妨害されている場合)それをユーザに警告するように構成されている。たとえば、外科システム10は、人がマーカと検出デバイス41との間に踏み込んだ場合、マーカと検出デバイス41との間に物が置かれた場合、カメラのレンズが遮られた場合(たとえばほこりによって)および/またはマーカの反射が妨害されている場合(たとえば血液、組織、ほこり、骨の破片などによって)音を鳴らす(および/または光を放つ)ようにプログラムされている音響的(および/または視覚的)アラームを含むことができる。外科システム10はまた、他の安全機構を起動するためのプログラミング、たとえば、検出デバイス41がマーカを見失ったときツール50を動作不能にするパワー遮断機構を備えた妨害検出アルゴリズム(図13のステップS11に関連して以下に論じる)を含むこともできる。
非機械的追跡システムは、ユーザが追跡することを望む対象物ごとに追跡可能要素(またはトラッカ)を含むことができる。たとえば、一つの態様では、非機械的追跡システムは、解剖学的構造トラッカ43(患者の解剖学的構造を追跡するため)、触覚デバイストラッカ45(触覚デバイス30の広域的または大まかな位置を追跡するため)、エンドエフェクタトラッカ47(触覚デバイス30の遠位端を追跡するため)および器具トラッカ49(ユーザによって手で保持される器具/ツールを追跡するため)を含む。
図1に示すように、解剖学的構造トラッカ43は、患者の解剖学的構造(たとえば骨)の該当部分に配置され、該当する解剖学的構造を検出デバイス41によって追跡することを可能にするように適合されている。解剖学的構造トラッカ43は、解剖学的構造に取り付けるための固定デバイスを含む。固定デバイスは、たとえば、骨ピン、外科ステープル、ねじ、クランプ、装着性装置、髄内ロッドなどであることができる。一つの態様では、解剖学的構造トラッカ43は、膝置換処置中に患者の大腿骨Fおよび脛骨Tを追跡するための使用のために構成されている。この態様では、図1に示すように、解剖学的構造トラッカ43は、大腿骨Fに配置されるように適合された第一のトラッカ43aおよび脛骨Tに配置されるように適合された第二のトラッカ43bを含む。図4に示すように、第一のトラッカ43aは、骨ピンPおよびマーカ(たとえば反射球)の特有のアレイS1を含む固定デバイスを含む。アレイS1は、両方の骨ピンPに脱着可能に留められるように適合された接続機構400に固着されている。たとえば、図4に示すように、接続機構400は、第一の部分442、第二の部分444およびねじ445を含むことができる。第一のトラッカ43aを大腿骨Fに設置するためには、ユーザは骨ピンPを大腿骨Fにねじ込み、接続機構400を骨ピンPの上に滑動させ、ねじ445を締め付けて第一の部分442と第二の部分444とを引き合わせ、それによって接続機構400を骨ピンPに確実に固定する。ひとたび留められると、接続機構400は、さらなる安定性を骨ピンPに付与する。第二のトラッカ43bは、それが脛骨Tに設置され、それ自体の特有のマーカアレイを有することを除き、第一のトラッカ43aと同一である。第一および第二のトラッカ43aおよび43bは、患者に設置されると、膝置換処置中に検出デバイス41が大腿骨Fおよび脛骨Tの運動を追跡することを可能にする。その結果、外科システム10は、外科的処置中に骨の運動をリアルタイムで補正することができる。
図2Aに示すように、触覚デバイストラッカ45は触覚デバイス30上に配置され、外科システム10が物理的空間中の触覚デバイス30の広域的または大まかな位置をモニタすることを可能にするように適合されている。特に、触覚デバイストラッカ45は、外科システム10が、触覚デバイス30が外科的環境中の他の物体、たとえば患者に対して移動したかどうかを決定することを可能にする。ツール50が触覚デバイス30に取り付けられているため、このような情報は重要である。たとえば、ユーザが、大腿骨Fをツール50で切削している間に触覚デバイス30を意図的に再位置決めまたは過ってぶつけてしまった場合、追跡システム40は触覚デバイストラッカ45の動きを検出する。それに応答して、外科システム10は、コンピュータ21および/またはコンピュータ31上で稼働するプログラムに適切な調節を加えて、大腿骨Fに対する触覚デバイス30(および取り付けられたツール50)の広域的または大まかな動きを補正することができる。その結果、大腿骨調製プロセスの完全性が維持される。
図2Aおよび5に示すように、触覚デバイストラッカ45は、マーカ(たとえば反射球)の特有のアレイS3を含み、触覚デバイス30のベース32に据え付けられるように適合されている。触覚デバイストラッカ45は、好ましくは、触覚デバイストラッカ45をベース32に対して固定された位置に留めることができるように据え付けられる。固定位置は、触覚デバイストラッカ45が触覚デバイス30のベース32に対してどこに位置するのかを外科システム10が知るよう、触覚デバイス30に対して較正される(図13のステップS9に関連して以下に論じるとおり)。ひとたび較正されると、外科的処置中その固定位置が維持される。一つの態様では、図2Aおよび5に示すように、触覚デバイストラッカ45は、ベース32に接続された(たとえばねじ、リベット、溶接、クランプ、磁石などを介して)近位端およびマーカのアレイS3を担持する遠位端を有するアーム34を含む。アーム34は、触覚デバイストラッカ45が触覚デバイス30に対して永久的位置に固定されるよう、強固な構造を有する一つまたは複数の支持部材(たとえばブラケット、支柱、リンクなど)を含むことができる。しかし、好ましくは、アーム34は、アレイS3が触覚デバイス30に対して第一の位置と第二の位置との間で移動可能であるよう、調節可能に適合されている。したがって、アレイS3は、固定位置に留められる前に、触覚デバイス30のベース32から独立して位置決めすることができる。調節可能性の一つの利点は、アレイS3の位置を外科ケースごとにカスタマイズすることができることである(たとえば患者の体格、手術台の高さなどに基づく)。調節可能性のもう一つの利点は、外科的処置中にユーザを妨害しないようにアレイS3を位置決めすることができるということである。調節可能性は、任意の公知のやり方でアーム34に付与することができる(たとえば関節アーム、フレキシブルネックなど)。たとえば、一つの態様では、図5に示すように、アーム34は、触覚デバイストラッカ45が配置されているボールジョイント34bを含む。ボールジョイント34bは、取っ手34aによって動かされるロック機構を含む。動作中、ユーザは、取っ手34aをゆるめてボールジョイント34bを解放し、触覚デバイストラッカ45が所望の位置にくるまでボールジョイント34bを操作し、ボールジョイント34bが固定されて留められるまで取っ手34aを締め付けることができる。このようにして、触覚デバイストラッカ45を所望の位置に固定することができる。触覚デバイストラッカ45を固定位置に留め、触覚デバイス30に対するその固定位置を較正する代替として、アーム34が位置センサ(たとえばエンコーダ)を含むこともできる。位置センサは、アーム33の位置センサに似たものでよく、適切なソフトウェア(たとえばコンピュータ21またはコンピュータ31上で稼働するソフトウェア)とともに作動して、ベース32に対するアーム34のポーズの計測を提供する。位置センサがアーム34に組み込まれている場合、外科システム10は、位置センサによって提供されるアーム34のポーズに基づいてベース32に対する触覚デバイストラッカ45の場所を決定することができるため、以下のステップS11の較正プロセスを除いてもよい。
エンドエフェクタトラッカ47は、外科システム10が触覚デバイス30の遠位端(たとえば作動端)のポーズを決定することを可能にするように適合されている。エンドエフェクタトラッカ37は、好ましくは、アーム33の遠位端またはツール50に配置されるように構成されている。たとえば、図6Bに示すように、エンドエフェクタトラッカ47は、エンドエフェクタ35上に配置されることができる。図6Aに示すように、エンドエフェクタトラッカ47は、マーカ(たとえば反射球)の特有のアレイS4を含むことができ、任意の公知のやり方で、たとえばクランプ装置、ねじ接続、磁石などを用いてエンドエフェクタ35に固着されるように適合されていることができる。図6Aに示すように、一つの態様で、エンドエフェクタトラッカ47は、クランプ1500でエンドエフェクタ35に固着される。クランプ1500は、アレイS4とで一体に形成することもできるし、任意の従来的な方法で、たとえば機械的ハードウェア、接着剤、溶接などでアレイS4に固着することもできる。クランプ1500は、第一の部分1505、第二の部分1510およびつまみねじ1515を含む。第一および第二の部分1505および1510は、エンドエフェクタの部分、たとえばツール50またはツールホルダ51の円柱形部分を受けるように付形されている。たとえば、図6Aに示すように、第一の部分1505は平坦面を有することができ、第二の部分1510はV形の溝を有することができ、第一および第二の部分1505および1510は、締め合わされた場合、ツール50またはツールホルダ51を確実に受けることができるようになっている。エンドエフェクタトラッカ47をエンドエフェクタ35に設置するためには、クランプ1500の第一および第二の部分1505および1515をツール50またはツールホルダ51の周囲に配置し、つまみねじ1515を使用して締め合わせる。エンドエフェクタトラッカ47はまた、エンドエフェクタトラッカ47を触覚デバイス30に設置する際にエンドエフェクタトラッカ47を正しく向き付けすることを支援するための形体を含むこともできる。たとえば、エンドエフェクタトラッカ47は、図6Bに示すようなくぼみ47aを含むことができる。
一つの態様では、エンドエフェクタトラッカ47は、触覚デバイス30の較正の間のみ使用され(図13のステップS9に関連して以下に論じるとおり)、外科的処置の実施の前に除去される。この態様では、エンドエフェクタトラッカ47はエンドエフェクタ35上に配置され(図6Bに示すとおり)、触覚デバイストラッカ45は触覚デバイス30のベース32に据え付けられ(たとえば図2Aに示すように調節可能アーム34を介して)、触覚デバイス30に対する触覚デバイストラッカ45の位置が調節可能であるようにしている。触覚デバイストラッカ45の位置が調節可能であるため(永久的に固定されるのではなく)、外科システム10は、触覚デバイス30に対する触覚デバイストラッカ45の場所を知らない。触覚デバイス30と触覚デバイストラッカ45との間の幾何学的関係を決定するため、較正プロセスはエンドエフェクタトラッカ47を使用する。エンドエフェクタトラッカ47は外科的処置全体(またはその任意の部分)にわたって触覚デバイス30上にとどまることもできるが、較正プロセスが完了した際にエンドエフェクタトラッカ47を除去することが有利である。たとえば、ユーザは、トラッカ47が触覚デバイス30に対するユーザのグリップ、患者の解剖学的構造、医療器具および装備および/または手術室中の他の人員に干渉することを防ぐため、エンドエフェクタトラッカ47を除去することを望むかもしれない。エンドエフェクタトラッカ47を除去するもう一つの利点は、外科的処置の間のエンドエフェクタトラッカ47の動きが、追跡システム40が動きエンドエフェクタトラッカ47を計測するときの遅延または限られたバンド幅のせいで、外科システム10の性能低下をもたらすおそれがあることである。
代替態様で、エンドエフェクタトラッカ47を除くこともできる。この態様では、触覚デバイストラッカ45は触覚デバイス30上の永久的な位置に固定される。触覚デバイストラッカ45が触覚デバイス30上の永久的な位置に固定されるため、触覚デバイストラッカ45と触覚デバイス30の座標フレームとの間の関係は既知である。したがって、外科システム10は、触覚デバイストラッカ45と触覚デバイス30の座標フレームとの間の関係を確立するための較正のためにエンドエフェクタトラッカ47を要しない。この態様では、触覚デバイストラッカ45は、追跡システム40が触覚デバイストラッカ45のアレイS3を見ることを可能にし、精度を落とさないように外科的処置部位に十分に近く、ユーザのじゃまをしたり、外科的環境中の他の人員または物体に干渉したりしない任意の位置で、触覚デバイス30上に強固に据え付けることができる。
もう一つの代替態様では、触覚デバイス30はしっかりと所定位置にロックされる。たとえば、触覚デバイス30は、手術室の床にボルトで固定したり、他のやり方で所定位置に固定したりすることができる。その結果、触覚デバイス30の広域的または大まかな位置は実質的に変化せず、その結果、外科システム10は、触覚デバイス30の広域的または大まかな位置を追跡する必要はない。したがって、触覚デバイストラッカ45を除くことができる。この態様では、エンドエフェクタトラッカ47を使用して、触覚デバイス30が所定位置にロックされた後の触覚デバイス30の初期位置を決定することもできる。
もう一つの代替態様では、追跡システム40は、永久的に固定された位置で触覚デバイス30に取り付けられる。たとえば、追跡システム40(検出デバイス41を含む)は、追跡システムが触覚デバイス30に対して所定位置に固定されるよう、触覚デバイス30に直接据え付けることもできるし、強固な据付けアームまたはブラケットを介して触覚デバイス30に接続することもできる。この態様では、触覚デバイス30に対する追跡システム40の位置が固定されており、たとえば触覚デバイス30の製造またはセットアップの間に実施される較正処置の間に設定することができるため、触覚デバイストラッカ45およびエンドエフェクタトラッカ47を除くこともできる。
もう一つの代替態様では、追跡システム40は、調節可能な方法で触覚デバイス30に取り付けられる。たとえば、追跡システム40(検出デバイス41を含む)は、触覚デバイス30に対して第一の位置から第二の位置まで移動可能であるよう、アーム、たとえば調節可能アーム34(触覚デバイストラッカ45に関連して上記したもの)によって触覚デバイス30に接続することができる。アームおよび追跡システム40が所定位置にロックされたのち、較正を実施して触覚デバイス30に対する追跡システム40の位置を決定することができる。較正は、たとえば、エンドエフェクタトラッカ47を使用して実施することができる。
器具トラッカ49は、ユーザの手に保持される器具150に結合されるように適合されている(たとえば、エンドエフェクタ35に取り付けられるツール50とは違って)。器具150は、たとえば、プローブ、たとえば位置合わせプローブ(たとえばストレートまたはフック付きプローブ)であることができる。図7に示すように、器具トラッカ49は、器具150とで一体に形成され、または任意の公知の方法で、たとえば機械的ハードウェア、接着剤、溶接、ねじ接続、クランプ装置、クリップなどで器具150に固着されたマーカ(たとえば反射球)の特有のアレイS5を含むことができる。器具トラッカ49がたとえばクリップまたはクランプ装置によって器具150に脱着可能に接続されている場合、器具トラッカ49を器具150に対して較正して器具トラッカ49と器具150の形状との間の関係を決定するべきである。較正は、適当な任意の方法で、たとえばくぼみまたはV溝を有するツールキャリブレータを用いて達成することができる(たとえば、全体が参照により本明細書に組み入れられる米国特許出願公開公報第US2003/0209096号に記載のとおり)。クリップまたはクランプ装置(たとえば図6Aに示すクランプ1500)を使用してトラッカ49を器具150に接続する一つの利点は、クリップまたはクランプ装置を様々なサイズの器具に合わせて調節することができることである。したがって、一つのクリップまたはクランプ装置を多数の器具とで使用することができる。アレイS5と器具150との間の幾何学的関係がわかると、外科システム10は、物理的空間中の器具150の先端の位置を算出することができる。したがって、器具150は、器具150の先端で対象物の該当部分にタッチすることにより、対象物を位置合わせするために使用することができる。たとえば、器具150は、骨の上のランドマークまたは骨の表面上の点にタッチすることにより、患者の骨を位置合わせするために使用することができる。器具150はまた、器具150の先端でインプラント上に位置する既定の検証形体(たとえばくぼみ)にタッチすることにより、患者中に設置されたインプラントの正しい整合を検証するために使用することもできる。
器具トラッカ49はまた、器具150の較正を検証するように構成されることもできる。たとえば、もう一つのトラッカ(たとえばトラッカ43、45または47)がくぼみを含み、その中にユーザが器具150の先端を挿入することができる。一つの態様では、図6Bに示すように、エンドエフェクタトラッカ47は、ユーザが器具150の先端を挿入することができるくぼみ47aを含む。すると、検出デバイス41が、器具トラッカ49およびエンドエフェクタトラッカ47のためのポーズデータを取得することができ、外科システム10が、トラッカ47および49の間の実際の幾何学的関係を予想される幾何学的関係と比較することができる。実際の幾何学的関係と予想される幾何学的関係との間の逸脱が、器具150の物理的パラメータ(たとえば直線性、先端位置など)が較正を逸していることを指摘する。図29に示すように、検証プロセス中、外科システム10は、器具150、器具トラッカ49およびエンドエフェクタトラッカ47のグラフィカル表現を示す画面を表示デバイス23上に表示することができる。
追跡システム40は、追加的または代替的に、機械的追跡システムを含むこともできる。非機械的追跡システム(トラッカ43、45、47および49から離れた検出デバイス41を含む)とは違って、機械的追跡システムは、追跡対象物に機械的にリンク(すなわち物理的に接続)された検出デバイス(たとえばジョイントエンコーダを有する関節アーム)を含むように構成されることもできる。追跡システム40は、任意の公知の機械的追跡システム、たとえば、いずれも参照により本明細書に組み入れられる米国特許第6,033,415号および/または米国特許第6,322,567号に記載されている機械的追跡システムを含むことができる。一つの態様では、追跡システム40は、患者の骨を追跡するように適合された接合機械アーム241(たとえば、六つ以上の自由度を有する関節アーム)を有する機械的追跡システムを含む。図8に示すように、アーム241は、触覚デバイス30のベース32に固着された近位端および患者の大腿骨Fに固定された自由に動く遠位端を有する。または、近位端は、他任意の適当な場所(たとえば手術台のレール、レッグホルダなど)に固着させてもよいが、好ましくは、アーム241が触覚デバイス30とともに広域的に動くよう、触覚デバイス30のベース32に接続される(たとえば直接またはブラケットを介して)。アーム241の遠位端は、大腿骨Fに強固に固定するように適合された固定デバイス245、たとえば骨ピン、骨ねじ、クランプ、装着性装置、外科ステープルなどを含む。アーム241は、多数の自由度を有するように構成されている。たとえば、一つの態様では、図8に示すように、アーム241は、ジョイント244で接続された複数のリンク242を含む。各ジョイント244は、アーム241のポーズを追跡するための一つまたは複数の位置センサ(図示せず)を組み込んでいる。位置センサは、適当な任意のセンサ、たとえば触覚デバイス30のアーム33に関連して上記した位置センサを含むことができる。動作中、大腿骨Fが動くと、アームの遠位端が大腿骨Fとともに移動する。位置センサ(および適切なソフトウェア)が、触覚デバイス30に固定されたアームの近位端に対するアームの遠位端のポーズの計測を出す。このようにして、触覚デバイス30に対する大腿骨Fの運動が捕捉される。機械的追跡システム240はまた、アーム241と同一であるが、脛骨Tに強固に固着されて、追跡システム240が脛骨Tの運動を追跡することを可能にする第二のアームを含むことができる。このようにして、機械的追跡システム240は、外科システム10が骨の運動を外科的処置中にリアルタイムで検出することができるよう、大腿骨Fおよび脛骨Tを追跡するために使用することができる。外科システム10は、骨運動データを適切なソフトウェアとともに使用して、骨の運動を外科的処置中にリアルタイムで補正することができる。
非機械的追跡システムに対する機械的追跡システムの一つの利点は、検出デバイス(すなわちアーム241)が、追跡対象物に物理的に接続されており、したがって、追跡対象物上のマーカを「見る」ための部位のラインを要しないということである。したがって、ユーザおよび他の人員は、外科的処置中、マーカのセットと光学カメラとの間の見えない視線を遮ることを心配することなく、手術室の中を自由に動くことができる。機械的追跡システムのもう一つの利点は、アーム241を触覚デバイス30(たとえばベース32)に物理的に接続することができるということである。このような構造は、患者に対する触覚デバイス30の広域的または大まかな位置を追跡する(たとえば、上記のように触覚デバイストラッカ45を使用して)必要性を取り除く。アーム241が触覚デバイス30とともに動くため、触覚デバイス30の広域的または大まかな位置を追跡する必要はない。その結果、骨運動追跡システムに対して再較正する必要なく、触覚デバイス30を処置中に再位置決めすることができる。さらには、機械的追跡システムは、非機械的追跡システムよりも正確であることができ、コンピュータ21および/またはコンピュータ31に対するより速い更新速度を可能にすることができる。より速い更新速度は、機械的追跡システムがコンピュータ21および/またはコンピュータ31にハードワイヤ接続されているために可能である。したがって、更新速度は、コンピュータ21および/またはコンピュータ31の速度によってのみ制限される。
代替態様では、機械的追跡システムのアーム241は、手術台、レッグホルダ62(図14Aに示すとおり)または外科的環境における他の構造に取り付けることもできる。この態様では、較正は、触覚デバイス30に対するアーム241のポーズを決定するために実施される。たとえば、一つの態様では、較正は、触覚デバイス30の遠位端(たとえばエンドエフェクタ35)をアーム241の遠位端との既知の幾何学的関係に配することによって実施される。もう一つの態様では、アーム241の遠位端は、触覚デバイス30のベース32との既知の幾何学的関係に置かれる。さらに別の態様では、触覚デバイス30の遠位端(たとえばエンドエフェクタ35)は、アーム241のベースとの既知の幾何学的関係に置かれる。
追跡システム40が機械的追跡システムを含む場合、アーム241を使用して患者の解剖学的構造を位置合わせすることができる。たとえば、ユーザは、アーム241を使用して、第二のアーム(すなわち、アーム241と同一であるが、脛骨Tに固着されているアーム)が脛骨Tの運動を追跡する間、脛骨Tを位置合わせすることができる。位置合わせは、たとえば、アーム241の遠位端の先端を脛骨T上の解剖学的ランドマークに合わせることおよび/または脛骨Tの表面上の点にアーム241の遠位端の先端でタッチする(または「ペイントする」)ことにより、達成することができる。ユーザが脛骨T上のランドマークにタッチする、および/または脛骨Tの表面をペイントすると、外科システム10は、アーム241中の位置センサからデータを取得し、アーム241の先端のポーズを決定する。同時に、第二のアームが脛骨Tの運動に関するデータを提供して、外科システム10が位置合わせ中に骨の運動を考慮に入れることができるようにする。外科システム10は、骨運動データおよびアーム241の先端の位置の知識に基づき、脛骨Tを、コンピューティングシステム20中の患者の解剖学的構造の診断イメージおよび/または解剖学的モデルに対して位置合わせすることができる。同様にして、第二のアームを使用して、アーム241(大腿骨Fに固着されている)が大腿骨Fの運動を追跡する間、大腿骨Fを位置合わせすることもできる。患者の解剖学的構造はまた、たとえば、非機械的追跡システムを追跡されるプローブと併用して(たとえば器具150を器具トラッカ49と併用して)および/または触覚デバイス30を使用して(たとえば図13のステップS8に関連して以下に記載するとおり)位置合わせすることもできる。
図1に示すように、追跡システム40は、インタフェース100bを介して触覚デバイス30に結合することもできる。インタフェース100bは、物理的インタフェースおよびソフトウェアインタフェースを含む。物理的インタフェースは、任意の公知のインタフェース、たとえば有線インタフェース(たとえばシリアル、USB、Ethernet、CANバスおよび/または他のケーブル通信インタフェース)および/またはワイヤレスインタフェース(たとえばワイヤレスEthernet、ワイヤレスシリアル、赤外線および/または他のワイヤレス通信システム)であることができる。ソフトウェアインタフェースは、コンピュータ21および/またはコンピュータ31上に常駐することができ、触覚デバイス30およびコンピューティングシステム20が追跡システム40と通信し、その動作を制御することを可能にする。
外科システム10は、電源に接続されるように適合されている。電源は、任意の公知の電源、たとえばアウトレット、バッテリ、燃料電池および/または発電機であることができ、従来のハードウェア(たとえばコード、ケーブル、サージプロテクタ、スイッチ、バッテリバックアップ/UPS、絶縁変圧器など)を使用して外科システム10に接続することができる。外科システム10は、好ましくは、ツール50への電力供給を手作業で制御するためのユーザアクティブ化装置を含む。たとえば、外科システム10は、手術室の床の上でユーザに近接て位置付けることができるフットペダル(または他のスイッチ開閉装置)を含むことができる。フットペダルの押下が電源をして電力(または、空気式ツール50の場合、圧縮空気供給)をツール50に供給させる。逆に、フットペダルの解放がツール50への電力の流れを断つ。外科システム10はまた、安全性を促進するためにツール50への電力の流れを自動的に断つように適合させることもできる。たとえば、外科システム10は、危険な条件が検出された場合、たとえば解剖学的構造トラッカ43および/または触覚デバイストラッカ45が骨切削のような重要な手術中に妨害された場合にツール50を停止させるように構成されたプログラムまたはプロセス(たとえばコンピュータ21および/またはコンピュータ31上で稼働)を含むことができる。
動作中、コンピューティングシステム20、触覚デバイス30および追跡システム40が協働して外科的処置中に外科システム10が触覚誘導をユーザに提供することを可能にする。外科システム10は、力フィードバック触覚インタフェース(すなわち、触覚デバイス30)を使用してユーザが仮想環境と対話することを可能にすることによって人の感触システムをシミュレートすることにより、触覚誘導を提供する。触覚デバイス30は、仮想環境およびその仮想環境中の仮想(または触覚)対象物の自然な感覚をユーザに運ぶためのコンピュータ制御された力を発生させる。コンピュータ制御された力はユーザに表示され(すなわち反映されまたは運ばれ)て仮想対象物の感触をユーザに感じさせる。たとえば、ユーザがツール50を操作すると、外科システム10は、ツール50の位置および向きを決定する。ツール50の仮想表現と仮想環境中の仮想対象物との間の衝突が検出される。衝突が起こるならば、外科システム10は、仮想対象物への仮想ツールの貫入深さに基づいて触覚反作用力を算出する。算出された反作用力は仮想対象物面の上にマッピングされ、適切な力ベクトルが触覚デバイス30を介してユーザにフィードバックされる。本明細書で使用する「仮想対象物」(または「触覚対象物」)とは、様々な対象物を指すために使用することができる。たとえば、仮想対象物は、物理的物体、たとえばインプラントまたは外科ツールの表現であってもよい。または、仮想対象物は、解剖学的構造から除去される物質、解剖学的構造上に保たれる物質および/またはツール50との接触を回避すべき解剖学的構造(または他の対象物)を表すこともできる。仮想対象物はまた、経路、ガイドワイヤ、境界、縁または他の限界もしくは規定を表すこともできる。
ユーザが仮想環境と対話することを可能にするため、外科システム10は触覚レンダリングプロセスを使用する。このようなプロセスの一つの態様が図40でグラフィカルに表されている。動作中、触覚デバイス30(ブロック2500)の位置センサ(ブロック2502)がデータを順運動学プロセス(ブロック2504)に提供する。順運動学プロセスの出力は座標変換プロセス(ブロック2506)に入力される。触覚レンダリングアルゴリズム(ブロック2508)が座標変換プロセスからデータを受け、力マッピングプロセス(ブロック2510)に入力を提供する。力マッピングプロセスの結果に基づき、触覚デバイス30のアクチュエータ(ブロック2512)が作動して適切な触覚ねじれ(すなわち力および/またはトルク)をユーザに運ぶ。ブロック2502の位置センサおよびブロック2512のアクチュエータは、触覚デバイス30のアーム33に関連して先に記載されている。ブロック2504の順運動学プロセスおよびブロック2506の座標変換プロセスは、図43のステップS708に関連して以下に論じる。ブロック2508の触覚レンダリングアルゴリズムおよびブロック2510の力マッピングプロセスは、図50に関連して以下に論じる。
触覚レンダリングプロセスは、適当な任意の触覚レンダリングプロセス、たとえば、米国特許第6,111,577号、C. B. Zilles & J. K. Salisbury, A constraint-based god-object method for haptic display, Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, Vol. 3, pp. 146-51, 1995、T. V. Thompson II, D. E. Johnson & E. Cohen, Direct haptic rendering of sculptured models, Proceedings of the Symposium on Interactive 3D Graphics, pp. 167-76, 1997、K. Salisbury & C. Tar, Haptic rendering of surfaces defined by implicit functions, Proceedings of the ASME Dynamic Systems and Control Division, DSC-Vol. 61, pp. 61-67, 1997および/またはJ. E. Colgate, M. C. Stanley & J. M. Brown, Issues in the haptic display of tool use, Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, Vol. 3, pp. 140-45, 1995に記載されている触覚レンダリングプロセスを含む。これらのそれぞれが参照により本明細書に組み入れられる。
触覚レンダリングプロセスによって生成される仮想環境は、ツール50の仮想表現と相互作用する仮想(または触覚)対象物を含む。仮想対象物とツール50の仮想表現との間の相互作用は、点ベースまたは射線ベースであることができる。好ましい態様では、外科システム10は、仮想点または触覚相互作用点(HIP)だけが仮想環境中の仮想対象物と相互作用する点ベースの触覚相互作用を使用する。HIPは、触覚デバイス30上の物理的点、たとえばツール50の先端に一致する。HIPは、仮想ばね/ダンパモデルによって物理的触覚デバイス30上の物理的点に結合される。HIPが相互作用する仮想対象物は、たとえば、表面707および触覚力法線ベクトルFnを有する触覚対象物705(図42に示す)であることができる。貫入深さdiは、HIPと表面707上のもっとも近い点との間の距離である。貫入深さdiは、触覚対象物705へのHIPの貫入の深さを表す。
仮想(または触覚)対象物は、たとえば3D幾何学的プリミティブ対象物、3Dポリゴン対象物、数学的方程式、コンピュータモデル、表面モデルおよび/またはボクセルアレイを使用してモデル化することができる。触覚対象物は、静的、準静的、動的、連続的、不連続的、時変性および/または特定の時機だけ存在するものであることができる。一つの態様では、触覚対象物は、ツール位置、向き、速度および/または加速度の一つまたは複数の関数を使用してモデル化される。したがって、外科的骨切削手術の場合、触覚レンダリングプロセスは、出力されるねじれ対ツール位置のマッピングを生じさせることができる。マッピングは、ユーザにフィードバックされる出力されるねじれが触覚対象物への仮想ツール(またはHIP)のさらなる貫入に抵抗するのに十分であるように構成することができる。このようにして、仮想切削境界が設定される。仮想境界は、患者の物理的解剖学的構造、解剖学的構造のイメージおよび/または他の対象座標フレームと対応させる(たとえばそれに位置合わせする)。触覚レンダリングプロセスによってレンダリングされた触覚対象物は、経路(たとえばガイドワイヤ)として機能することもできるし、反発性である(たとえば、ツール50が触覚対象物の内部に入ることに反発するように構成される)こともできるし、容器として機能することもできるし(たとえばツール50を触覚対象物の内部に維持するため)、反発する部分および収容する部分を有することもできる。図41に示すように、複数の触覚対象物701を重ね合わせて、各触覚対象物701からの力ベクトルFが組み合わさって結果的な触覚力ベクトルFvを生じさせるようにすることができる。一つの態様では、各触覚対象物701からの出力は、慣性座標フレームに関する、直線性を有するデカルト力ベクトルを含む。触覚対象物の最大数は、算出コストに基づいて決定することができる。
触覚対象物は、任意の所望の形、たとえば解剖学的に成形されたインプラント形、傷つきやすい構造(たとえば関節内構造)のための保護境界、イメージ誘導腫瘍境界およびインプラント構成部のインビボアセンブリのための仮想固定具を含むようにカスタマイズすることもできる。一つの態様では、触覚対象物は、患者の病状に合うように特有に成形することができる。たとえば、触覚対象物は、患部の骨だけを含む仮想切削境界を規定することができる。したがって、触覚対象物は、健康な周囲の骨を温存しながら患部の骨を除去する際にユーザを誘導するために使用することができる。このようして、外科システム10は、ユーザが、カスタマイズされた方法で、従来の切削ジグおよび鋸子ガイドでは不可能である複雑な形状および曲線を含め、骨を彫刻することを可能にする。結果として、外科システム10は、骨温存性外科的処置およびサイズが小さく、患者特有の病状に適合されたインプラント設計を容易にする。
触覚対象物は、表示デバイス23上にグラフィカルに表現することができる対応する空間的または幾何学的表現を有することができる。グラフィカル表現は、有用な情報をユーザに伝えるために選択することができる。たとえば、図1に示すように、ツール50を外科的処置部位に誘導する際にユーザを援助するように構成された触覚対象物300は、漏斗形の体積としてグラフィカルに表現することができる。物理的ツール50に対応する仮想ツールが触覚対象物300の中を動き、それと相互作用すると、触覚力がユーザに反映されて、ツール50が外科的処置部位に向けられるようになる。または、図9に示すように、触覚対象物310は、ガイドワイヤとしてグラフィカルに表現することもできる。仮想ツールが触覚対象物310に沿って移動し、それと相互作用すると、触覚力がユーザに反映されて、ツール50が外科的処置部位に直接誘導されるようになる。一つの態様では、インプラントのための仮想切削境界を規定する触覚対象物は、インプラントの形に実質的に一致する形を有するグラフィカルイメージとして表示デバイス23上に描くことができる。したがって、大腿骨構成部72(図10Aに示す)のための仮想切削境界を規定する触覚対象物208は、図9に示すような対応するグラフィカル表現を有することができる。同様に、脛骨構成部74(図10Bに示す)のための仮想切削境界を規定する触覚対象物206は、図9に示すような対応するグラフィカル表現を有することができる。
簡単な体積を有する触覚対象物は、好ましくは、3D暗示表面対象物、たとえば平面、球、円錐、円柱などの組み合わせでモデル化される。たとえば、図42に示す触覚対象物705は球体である。触覚対象物705の表面は連続的に平滑であり、貫入深さdiおよび触覚力法線ベクトルFnに対する解は、触覚相互作用点(HIP)に基づくコンパクトな数学的表面関数から非高額な固定算出コストで得ることができる。より複雑な対象物の場合、ポリゴンベースの触覚レンダリング技術を使用することができる。
図43は、本発明のポリゴンベースの触覚レンダリングプロセスの態様を示す。ステップS702で、たとえばコンピュータ援用設計(CAD)ソフトウェアを使用して、ユーザが対話することができる仮想環境を作り出す。仮想環境は、たとえば、明示的表面モデルを使用して生成することができる。一つの態様では、仮想環境は、多数のポリゴン表面対象物を含む3D仮想(または触覚)対象物を含む。図44に示すように、各表面対象物は、好ましくは三角形であり、三つの節(または頂点)v0、v1およびv2ならびに法線ベクトルnによって表される。仮想対象物は、ツール50の物理的直径を補正するために、たとえば仮想対象物の壁をツール50の半径だけオフセットすることによって再形成することができる。リアルタイム用途で重要である計算能力を高めるため、ポリゴン面対象物をたとえば再メッシングして、所望の空間解像度よりも小さいポリゴンを除く。仮想対象物が閉じた空洞である場合、CADシステムを使用する仮想対象物の生成は、二つの面、外側対象物面および内側空洞面を有する仮想対象物を作り出すことによって簡略化することもできる。しかし、内側空洞面のみを使用すると、有利には、レンダリングに必要な体積およびポリゴン対象物(たとえば三角形、多角形など)の数を減らすことができる。一つの態様では、レンダリングプロセスは、HIPが、外側から内側に移動する場合のみHIPが仮想対象物を通過することを許される、閉じた仮想対象物に対する一方向性進入挙動を支持することができる。
図43のステップS704で、触覚レンダリングプロセスは、仮想環境中のポリゴン面対象物のボクセルマップを生成する。ボクセルマップを生成するためには、仮想環境中の仮想対象物を小さなセル(ボクセル)に空間的に分割して、ポリゴン面対象物の数を減らし、不必要な衝突検出チェックを回避する。図45に示すように、仮想対象物はni×nj×nkグリッドにセグメント化される。グリッドは、規則的に離間していることもできるし、解像度が異なることもできる。各ボクセルは、そのボクセルを占めるまたはそのボクセルと交差するポリゴンへのポインタを有する。ポリゴンのセットが得られると、以下のステップによってボクセル参照テーブルを構築する。対象ポリゴンに関するポリゴンデータ(すなわち、頂点v0、v1およびv2のためのxyz成分)を抽出し、ポリゴンの周囲にバウンディングボックスを生成し、そのポリゴン特有の識別番号をバウンディングボックス内にあるボクセルに加え、ボクセルを占有するポリゴンの総数を増す。最後のポリゴンを処理するまでこれらのステップを繰り返す。図44(ポリ基準フレーム)および図45(ボクセル基準フレーム)に示すように、式vijk=(int)floor(p/s)(sはボクセルサイズである)を使用して、ポリフレーム中の点pをボクセルフレームに変換する。ボクセルおよびポリゴン参照テーブルの例が図46Aおよび46Bにそれぞれ示されている。
図43のステップS706で、触覚レンダリングプロセスは、標的点または標的領域へのガイドラインを生成する。ガイドラインは、HIPを特定の場所に誘導する経路またはガイドワイヤとして機能する。ガイドラインは、たとえば、物理的ツール50のユーザの動きを誘導してツール50が重要な解剖学的構造を回避するようにするために有用である。ガイドラインはまた、ユーザが横切ることができない閉じた触覚体積とで有用である。ガイドラインの具現化は、仮想球体720を示す図47を参照しながら説明する。球体720は、球体720の中心および半径によって規定されるアクティブゾーンを含む。HIPがアクティブゾーンの外にある場合、ユーザは、触覚デバイス30を自由に動かすことができる。HIPがアクティブゾーンに入ると、触覚デバイス30は、誘導ラインセグメント722が生成されるアプローチモードに入れられる。誘導ラインセグメント722は、たとえば、球体720の表面上の進入点723から標的点721(たとえば標的点対{pe、pt})まで延びている。通常、球体720の中心は標的点と符合する(または標的領域内にある)。誘導ラインセグメント722がアクティブ化されると、HIPは、誘導ラインセグメント723に沿って自由に動くことができる。誘導ラインセグメント722を逸脱するHIPの運動(たとえば、誘導ラインセグメント722に対して垂直の運動)が、ユーザにフィードバックされる抵抗力となる。HIPが標的点に近づくにつれ、HIPの現在の場所から標的点までの距離がモニタされる。距離が制限半径よりも小さい場合、たとえば一方向に拘束された仮想閉込め球体724を具現化することによってHIPの挙動は制限される。HIPが標的点に近づくにつれ、閉込め球体724の半径が減る。HIPから標的点までの距離がスイッチ半径(図47でスイッチ球725によって表すもの)よりも小さくなると、仮想対象物の触覚レンダリングが始まる。
図43のステップS708で、触覚レンダリングプロセスが物理的HIP(たとえばツール50の先端)を仮想空間にマッピングする。たとえば、図40の順運動学プロセス(ブロック2504)が慣性基準フレームRiに関して物理的HIPのデカルト位置を計算する。図40の座標変換プロセス(ブロック2506)が、図48に示すように、慣性基準フレームRi、ポリフレームRp(ポリゴン仮想対象物に取り付けられた基準フレーム)およびボクセルフレームRv(ボクセルアレイに取り付けられた基準フレーム)の間で座標変換を実施する。ひとたび触覚レンダリングプロセスがポリフレームRpに対するHIPの位置を決定すると、触覚レンダリングプロセスはステップS710に進み、占有されたボクセルおよび隣接ボクセルを見ることによって候補のポリゴン対象物をサーチする。ステップS712で、触覚レンダリングプロセスは、衝突をチェックし(たとえば、最後のレンダリングサイクルののちHIPがポリゴン対象物を通過した)、所望の仮想プロキシ挙動(図49に関連して以下に記す)に基づいて仮想プロキシ点位置(たとえば仮想対象物の表面沿いのHIPの拘束位置)を決定する。ステップS714で、ツール座標で既定されている所望の剛性および減衰行列を慣性基準フレーム座標に変換する。ステップS716で、HIPを触覚デバイス30に結合する、仮想ばねおよび減衰力によって規定される仮想面の所望の硬さに基づいて、触覚デバイス30を介してユーザにフィードバックされる触覚力を計算する。ステップS718で、計算された触覚力が表示され、触覚デバイス30を介してユーザに反映される。
図49Aおよび49Bに示すように、現在時間tにおけるHIPの場所HIP(t)および直前の時間t-1におけるHIPの場所HIP(t-1)に基づいて、初期仮想プロキシ点の場所を決定することができる。たとえば、HIPが仮想対象物の外にあるならば、触覚レンダリングプロセスは、仮想対象物を含むポリゴン面対象物と、位置HIP(t)と位置HIP(t-1)との間に延びるラインセグメントLとの間の交点を検出することにより、HIPと仮想対象物の表面との間の初期接触をチェックする。初期仮想プロキシ点の場所VP(t)は、ラインセグメントLとポリゴン面対象物との交点として計算される。
図50は、本発明のポリゴン面対象物に基づく触覚レンダリングアルゴリズム(図40のブロック2508)の態様を詳述するフローチャートを示す。ステップS100で、HIP(t)の位置を更新し、ポリ基準フレームに変換する。ステップS101で、アルゴリズムは、collisionDetectedFlag(t-1)が1の値を有するかどうかを決定する。有さないならば、ステップS103で、アルゴリズムはHIP(t)をボクセル座標にマッピングする。ステップS105で、アルゴリズムは、HIP(t)がボクセルバウンディングボックスの内側にあるかどうかを決定する。内側にないならば、衝突は検出されず、アルゴリズムは、触覚力がゼロにセットされるステップS115、collisionDetectedFlag(t)がゼロにセットされるステップS117および時間がt=t+1に進むステップS119に進む。ステップS105が、HIP(t)がボクセルバウンディングボックスの内側にあると決定するならば、アルゴリズムはステップS107に進み、HIP(t)のラインセグメントに沿って候補ポリゴンをボクセル参照テーブルからサーチする。ステップS109で、アルゴリズムはポリゴン参照テーブルからポリゴン情報を検索する。ステップS111で、アルゴリズムは、HIP(t)のラインセグメントとポリゴンとの交点を試験し、ステップS113で、初期衝突が検出されるかどうかを決定する。衝突が検出されないならば、アルゴリズムは、上記のようなステップS115、S117およびS119に進む。衝突が検出されるならば、アルゴリズムはステップS132(以下に記載)に進む。
対照的に、ステップS101で、collisionDetectedFlag(t-1)が1の値を有するならば、アルゴリズムはフローチャートの右側の枝をたどる。ステップS102で、アルゴリズムは、HIP(t)をボクセル座標にマッピングする。ステップS104で、アルゴリズムは、HIP(t)における隣接ポリゴンをボクセル参照テーブルからサーチする。ステップS106で、アルゴリズムはポリゴン情報をポリゴン参照テーブルから検索する。ステップS108で、各隣接ポリゴンを試験して、それがHIP(t-1)からHIP(t)までのラインセグメントと交わるかどうかを決定する。ステップS110で、アルゴリズムはこの情報を使用してHIP(t)がポリゴンを出たかどうかを決定する。ポリゴンを出たならば、HIPはもはや触覚対象物に貫入しておらず、アルゴリズムは上記のようなステップS115、S117およびS119に進む。ステップS110でHIPがポリゴンを出ていないと決定するならば、アルゴリズムはステップS112に進み、そこで、アルゴリズムはHIP(t)を、ポリゴンの対応する表面法線ベクトルに沿って各隣接ポリゴンに射影する。射影されたHIP(t)がポリゴン内にあるならば、アルゴリズムはそのポリゴンをOn-Polygonとしてセットし、交点を記憶する。ポリゴン内にないならば、アルゴリズムは、ポリゴンの境界線上の、射影されたHIP(t)にもっとも近い点(すべてポリゴンの平面内にある)を見いだし、その点を記憶する。隣接するポリゴンごとにこのプロセスが繰り返される。そして、アルゴリズムは、直前の時間サイクルからのアクティブポリゴンAP(t-1)がステップ22でOn-Polygonであるとセットされたかどうか、また、一つのポリゴンしか現在のサイクルでOn-Polygonであるとセットされていないかどうかに基づく決定点を有する。各ケースは以下のように扱われる。
ステップS114で、アルゴリズムは、直前のアクティブなポリゴン(仮想プロキシ点が接触していたもの)がまだOn-Polygonであるかどうかを決定する。まだOn-Polygonであるならば、ステップS124(ActivePolygonPriority)で、他のポリゴンがOn-Polygonと指定されているとしても、このポリゴン面はアクティブポリゴンであるための優先順位を有する。したがって、AP(t)が維持され、VP(t)がアクティブポリゴン面上のもっとも近い点にセットされる。たとえば、図51Aは、二つの隣接面540および542によって規定される仮想対象物の凸部を示す。t-1におけるHIPが場所544にあったとき、表面540はOn-Polygonであり、表面542はOn-Polygonではない。t-1における仮想プロキシ点の場所は場所548にある。HIPが場所546に移動するならば、面540および542の両方がOn-Polygonであり、場所550および552はプロキシ点位置の候補である。この状況で、面540がアクティブポリゴンとして選択され、プロキシ点の場所は場所550で更新される。直前のアクティブポリゴンの優先順位をこの方法で付与することは、プロキシ点としての場所552の選定を妨げる。プロキシ点としての位置552の選択は、プロキシ点の場所および結果としてユーザによって感じられる触覚相互作用力における不自然なジャンプを生じさせるであろう。
ステップS114で直前のアクティブなポリゴンがOn-Polygonではないと決定されるならば、アルゴリズムはステップS116に進んで一つのOn-Polygonが検出されるかどうかを決定する。ステップS116で一つのOn-Polygonが検出されないならば、アルゴリズムは、再びステップS120でチェックを行う。ステップS116で一つのOn-Polygonが検出されるならば、アルゴリズムはステップS118に進み、凹かど部に関してOn-Polygonを拡張したのち、ステップS120で再び一つのOn-Polygonに関してチェックを行う。ステップS120で一つのOn-Polygonが検出されるならば、アルゴリズムはステップS126(以下に記す)に進む。ステップS120で一つのOn-Polygonが検出されないならば、アルゴリズムはステップS122に進み、複数のOn-Polygonが検出されるかどうかを決定する。検出されるならば、アルゴリズムはステップS128(以下に記す)に進む。検出されないならば、アルゴリズムはステップS130(以下に記す)に進む。
ステップS126(OnPolygonPriority)でAP(t)が新たなOn-Polygonで更新され、VP(t)がアクティブなポリゴン面上のもっとも近い点にセットされる。たとえば、図51Bに示すように、仮想対象物は二つの隣接面554および556を有する。時間t-1で、HIPは場所558にあり、プロキシ点は場所562にある。HIPが場所558から場所560に動くときHIPが表面境界線564を越えるならば、表面556はOn-Polygonになり、場所566は新たなプロキシ点の場所になる。したがって、新たな一つのOn-Polygonが検出されるならば、その新たな一つのOn-Polygonがアクティブなポリゴンになる。
ステップS128(ContinuousSurfacePriority)で、力ベクトル逸脱基準に基づいてAP(t)を選択し、VP(t)をアクティブなポリゴン面上のもっとも近い点にセットする。アルゴリズムは、三つの面568、570および572によって規定される仮想対象物の凸部を示す図51Cに示すように、複数の新たなOn-Polygonを検出する。HIPが場所574から場所578に移動すると、アルゴリズムは、二つの新たなOn-Polygon面570および572を検出する。したがって、場所580および582は、新たな仮想プロキシ点の場所の候補である。この状況で、アルゴリズムは、減衰成分を除いた力ベクトルの可能な候補を計算し、直前の力ベクトル逸脱からの力ベクトル逸脱を比較する。アルゴリズムは、以下の目的関数を最小限にするため、アクティブなポリゴンを決定する。
式中、fsi,tは、HIPの現在場所およびi番目のポリゴン上の仮想プロキシ点の可能な場所によって規定されるばね力ベクトルを表し、ft-1は、直前の時間に表示された触覚力を表す。一つの態様では、表面570が新たなアクティブなポリゴンになり、場所580が新たなプロキシ点位置になる。
式中、fsi,tは、HIPの現在場所およびi番目のポリゴン上の仮想プロキシ点の可能な場所によって規定されるばね力ベクトルを表し、ft-1は、直前の時間に表示された触覚力を表す。一つの態様では、表面570が新たなアクティブなポリゴンになり、場所580が新たなプロキシ点位置になる。
ステップS130(MinimumForcePriority)で、AP(t)は最小力基準に基づき、VP(t)はアクティブなポリゴン面上のもっとも近い点にセットされる。図51Dに示すように、HIPは、On-Polygonを検出することができない位置にある。図51Dは、三つの面584、586および588によって規定される仮想対象物の凹部を示す。HIPが場所590から場所594に動くと、On-Polygonである面はない。場所596は、面586および584にもっとも近い点であり、場所598は、面588にもっとも近い点である。この状況で、アルゴリズムは、現在のHIPと可能なプロキシ点の場所との間の距離を計算し、以下の目的関数を最小限にするための仮想プロキシの場所を決定する。
式中、xi,vpは、i番目のポリゴン上の可能な仮想プロキシ点の位置を表し、xhipは、現在の触覚インタフェース点の位置を表す。この状況で、アルゴリズムは、面584または面586のいずれかをそれらの処理順序に依存してOn-Polygonとしてセットし、場所596がプロキシ点の場所になる。
式中、xi,vpは、i番目のポリゴン上の可能な仮想プロキシ点の位置を表し、xhipは、現在の触覚インタフェース点の位置を表す。この状況で、アルゴリズムは、面584または面586のいずれかをそれらの処理順序に依存してOn-Polygonとしてセットし、場所596がプロキシ点の場所になる。
ステップS132(ContactPolygonPriority)で、交差したポリゴンによってAP(t)を更新し、VP(t)をアクティブなポリゴン面上のもっとも近い点にセットする。触覚インタフェース点が、アルゴリズムが一つのOn-Polygon対象物および複数の凹面を検出する凹かど部にある場合、アルゴリズムはOn-Polygon対象物を拡張する。この状況で、アプリケーションは凹ポリゴン面をOn-Polygonにセットして、連続的な触覚レンダリングが凹かど部で起こることができるようにする。図52Aおよび52Bは、三つの面500、502および504によって表される凹かど部の一部を示す。触覚インタフェース点が場所506(プロキシ点の場所508とともに)から場所510に移動すると、面504が唯一のOn-Polygon対象物になる。On-Polygon優先順位挙動のせいでアルゴリズムが面504をアクティブなポリゴン面としてセットし、場所514をプロキシ点の場所として選択してしまう状況を回避するため、アルゴリズムは二つの凹面500および502をOn-Polygon対象物中に拡張する。結果として、連続面優先順位挙動にしたがって、場所512がプロキシ点の場所になる。
ステップS134で、ツール座標中で定数パラメータとして規定された剛性および減衰行列を慣性座標フレームに変換する。物理的触覚デバイス30が異なる伝達装置、たとえばケーブル駆動伝達装置および直結駆動伝達装置を有するならば、物理系は異なる方向で異なる動的性質を有するため、等方性の空間剛性および減衰ゲインが不安定性を生じさせるおそれがある。この理由のため、ツール座標に関して空間剛性および減衰行列を規定することができ、それらを慣性座標フレームに変換する必要がある。アルゴリズムは、現在の回旋および平行移動行列に基づいて随伴変換行列を計算し、空間剛性および減衰行列を変換する。TKSおよびIKSが、それぞれツールフレームおよび慣性フレームで計測された剛性行列を示すものとする。Adgが、得られる随伴変換行列を以下のように指定するとする。
アルゴリズムは慣性フレームにおける剛性行列を計算する。
IKS=Adg T TKS Adg
IKS=Adg T TKS Adg
ステップS136で、アルゴリズムは、触覚インタフェース点の場所および仮想プロキシの場所に基づき、フックの法則にしたがって、ばね触覚力ベクトルを計算する。
Fsping(t)=lKS(xvp-xhip)
式中、xvpは、現在の仮想プロキシ点の位置を表し、xhipは、現在の触覚インタフェース点の位置を表す。
Fsping(t)=lKS(xvp-xhip)
式中、xvpは、現在の仮想プロキシ点の位置を表し、xhipは、現在の触覚インタフェース点の位置を表す。
ステップS138で、アルゴリズムは、触覚インタフェース点と仮想プロキシ点との間の相対動に基づいて減衰触覚力ベクトルを計算する。
式中、
は仮想プロキシ点の運動を表し、
は触覚インタフェース点の運動を表し、IKDは慣性フレームにおける空間減衰行列を表す。
式中、
は仮想プロキシ点の運動を表し、
は触覚インタフェース点の運動を表し、IKDは慣性フレームにおける空間減衰行列を表す。
ステップS140で、減衰力とばね力との和を所望の力出力として物理的触覚デバイス30に送る(図43のステップS718)。力フィードバックを出力するために触覚デバイス30のアクチュエータを制御する(図40のブロック2512)前に、力マッピングプロセス(図40のブロック2510)が所望の力Fdesiredを関節トルクτに変換する。
τ=JTFdesired
式中、JTはヤコビ転置である。そして、コンピューティングシステム20は、触覚デバイス30のアクチュエータを制御して関節トルクτを出力する。
τ=JTFdesired
式中、JTはヤコビ転置である。そして、コンピューティングシステム20は、触覚デバイス30のアクチュエータを制御して関節トルクτを出力する。
ステップS142で、collisionDetectedFlag(t)=1である。ステップS144で、時間がt=t+1に進む。触覚デバイス駆動装置(たとえばモータ)と位置出力(たとえばジョイント)との間に、コンプライアンス、バックラッシュ、ヒステリシスまたは非線形性を有する伝達装置があるかもしれない場合には、伝達装置の駆動端および負荷端の両方に位置センサを含めることが有利である。負荷端のセンサは、実際値をもっとも正確に反映するものであるため、すべてのジョイントおよび終点位置を計算するために使用される。駆動端センサは、任意の減衰計算、たとえば上記Fdampingにおいて速度を計算するために使用され、それが、伝達ダイナミクスの励起を回避する。
一つの態様によると、触覚デバイス30の所望の力フィードバック(または出力ねじれ)は、触覚デバイス30の部分(たとえばツール50)と、解剖学的構造の表現と対応する仮想(または触覚)境界との近接に基づいて決定される。したがって、ツール50が触覚境界から十分な距離のところに配置されているならば、コントローラは触覚力を命令せず、ユーザは、ツール50を、まるで空間を探索しているかのように自由に動かすことができる。しかし、ツール50が触覚境界に接近または接触すると、コントローラはモータにトルクを命令してインタフェース37を介してユーザの手に適切なねじれを加える。好ましくは、力フィードバックの大きさは、ツール50が仮想境界に接近するにつれて増大し、揺動または望まれない振動を誘発する不連続なステップを提示しない。たとえば、ツール50が触覚境界に接近すると、触覚デバイス30は、ユーザインタフェース37の移動方向とは反対の方向に力を加えて、ユーザが、ツール50の動きを減速および/または停止させる反発または反作用力を知覚するようにすることができる。一つの態様では、ツール50が触覚境界に向けて移動し続けるときの力の増大率は、たとえば5N/mm〜50N/mmの範囲であることができる。もう一つの態様では、力の増大率は約20N/mmであることができる。このようにして、ユーザは、触覚境界に深く貫入しすぎないように拘束を受ける。ツール50が触覚境界と接触すると、力は、ツール50が物理的物体、たとえば壁と衝突したかのような感じをユーザが受けるような力になることができる。力の大きさは、ユーザが、触覚境界に貫入することを防ぐことができる(たとえば、約100N以上の大きさ)が、好ましくは、望むならばユーザが触覚境界を越えることもできるようにセットされる(たとえば約20N〜約60Nの範囲の大きさ)。したがって、コンピューティングシステム20は、ユーザが力フィードバックに打ち勝ち、触覚デバイス30を所望の場所に動かすことができるようにプログラムすることもできる。このようにして、触覚デバイス30は、ユーザが触覚境界を過って侵犯しないように拘束するが、ユーザは、触覚デバイス30に打ち勝つオプションをも有し、したがって、外科的処置に対して完全な制御を保持する。
一つの態様で、外科システム10は、触覚対象物の力フィードバック機能を特定のユーザのためにカスタマイズするための触覚チューニング機構を含む。各ユーザが特有の外科的技術を有するため、このような機構は有利である。したがって、ツール50を移動させる際、異なるユーザが異なる量の力を使用することができる。たとえば、軽いタッチでツール50を移動させるユーザは、より重いタッチで操作するユーザよりも早く触覚フィードバックを感知するかもしれない。触覚チューニング機構は、重いタッチのユーザが触覚フィードバックを十分に感知するために自分の外科的技術を変えることを要求するのではなく、力フィードバック機能を各特定のユーザに合わせて調節することを可能にする。力フィードバック機能を調節(またはチューニング)することにより、ユーザは、ツール50を自分の好みの力加減で操作し、なおも、触覚デバイス30によって加えられる触覚フィードバックを十分に知覚することができる。その結果、ツールを触覚境界内に維持するユーザの能力が改善される。たとえば、図11Aに示すように、力フィードバック曲線は、力Fを距離dに関連させる関数F(d)を含む。関数F(d)は、たとえば、触覚対象物、カップリング剛性または剛性関数から得ることもできるし、それらの積であることもできる。一つの態様では、Fiが、ユーザ(またはユーザの群)にとって典型的な触覚相互作用力であり、diが、貫入深さまたは距離(たとえば触覚対象物へのツール50の貫入)である(Fi=F(di)が真である場合)。図11Bに示すように、関数F(d)の左へのたとえばdi分のシフトまたはオフセットは、ツールが触覚境界に接近する際に力Fをより早期に適用させる(すなわち、ゼロの貫入距離ではなく-diの貫入距離で開始する)力フィードバック関数F(d+di)を生じさせる。同様に、関数F(d)の右へのシフトまたはオフセットは、ツールが触覚境界に近づく際に力Fをより遅く適用させる。したがって、力のある外科的技術を有するユーザの場合、関数F(d)を左にオフセットさせて、ユーザが過って触覚境界の中に深く押し入れすぎることを防ぐことが有利である。したがって、触覚チューニングは、触覚デバイス30を所望の値だけ制御するように力フィードバック曲線をオフセットすることによって達成することができる。触覚チューニングはまた、触覚対象物のサイズを変えることによって達成することもできる。たとえば、反発性触覚対象物120a(図11Cに示す)のサイズを増すと、触覚対象物120b(図11Dに示す)を得ることができる。同様に、触覚デバイス30に結合された外科ツールの表現のサイズを変えることもできる。たとえば、触覚対象物122と相互作用する仮想ツール124a(図11Eに示す)の先端の半径のサイズを増すと、仮想ツール124b(図11Fに示す)を得ることができる。容器として作用する触覚対象物の場合、チューニングは、たとえば、触覚対象物のサイズを減らすことによって達成することができる。
各ユーザが力フィードバック機能をチューニングすることを可能にするため、コンピューティングシステム20は、好ましくは、表示デバイス23上に表示することができるグラフィカル選択インタフェースを可能にするためのプログラミングを含む。たとえば、図11Gおよび11Hにそれぞれ示すように、グラフィカル選択インタフェースは、ユーザがチューニング値をたとえば0.0〜1.0にセットすることを可能にするグラフィカルインタフェース217aおよび/またはユーザがたとえば「軽」、「中」または「重」のタッチのためのチューニングを選択することを可能にするグラフィカルインタフェース217bであってもよい。コンピューティングシステム20はまた、チューニング設定の所望の値を記憶し、その所望の値を特定のユーザ(たとえばユーザ好みデータファイルに関連させたユーザIDを使用する)と対応させて、そのユーザが外科システム10の使用のたびにチューニング設定を選択する必要がないようにプログラムすることもできる。
触覚デバイス30は、好ましくは、種々の動作モードで作動するように構成されている。たとえば、触覚デバイス30は、入力モード、ホールドモード、安全モード、フリーモード、アプローチモード、触覚(またはバーリング)モードおよび/または他適当な任意のモードで作動するようにプログラムすることができる。動作モードは、ユーザが手作業で(たとえば表示デバイス23上にグラフィカルに表現された選択ボタンまたは触覚デバイス30および/またはコンピューティングシステム20上に位置するモードスイッチを使用して)選択することもできるし、コントローラまたはソフトウェアプロセスによって自動的に選択することもできる。入力モードでは、触覚デバイス30は、情報を外科システム10に入力するための入力デバイスとしての使用が可能になる。触覚デバイス30が入力モードにあるとき、ユーザは、たとえば、エンドエフェクタ35に関連して先に記したように、および/または、参照により本明細書に組み入れられる米国特許出願第10/384,078号(公開番号US2004/0034282)に記載されているように、触覚デバイス30をジョイスティックまたは他の入力デバイスとして作動させることができる。情報を外科システム10に入力する他の方法は、たとえば、リスト36を動かすこと、アーム33のジョイントを動かすことおよび/またはアーム33(またはその部分)を動かすことを含む。たとえば、アーム33を対象物(たとえば追跡対象物)に向けて動かすことが第一の入力を構成することができる。同様に、アーム33を対象物に向けて動かし、リスト36をねじることが第二の入力を構成することができる。したがって、外科システム10は、たとえば、追跡対象物に対する触覚デバイス30のポーズ、触覚デバイス30の部分(たとえばリスト36)の動きまたはポーズと動きとの組み合わせに基づいてユーザ入力を特定または識別することができる。ホールドモードでは、触覚デバイス30のアーム33を特定のポーズにロックすることができる。たとえば、アーム33は、ブレーキ、サーボ制御技術および/またはアーム33を安定させるための他任意の適切なハードウェアおよび/またはソフトウェアを使用してロックすることができる。ユーザは、たとえば、骨切削のような行為中、休憩を取る、同僚と相談する、外科的処置部位の清浄および潅流を可能にするなどのために、触覚デバイス30をホールドモードに入れることを望むかもしれない。安全モードでは、触覚デバイス30に結合されたツール50を、たとえばツール50へのパワーを断つことによって動作不能にすることもできる。一つの態様では、触覚デバイス30のアーム33が所定位置にロックされたときツール50が動作不能になるよう、安全モードおよびホールドモードを同時に実行することもできる。
フリーモードでは、触覚デバイス30のエンドエフェクタ35は、触覚デバイス30の作業空間の中で自由に動くことができる。ツール50へのパワーは好ましくは非アクティブ化され、触覚デバイス30は、ユーザにとって重さがないように感じられるように適合させることができる。重さのない感じは、たとえば、アーム33のセグメント33a、33bおよび33cに作用する重力荷重を計算し、その重力荷重を相殺するように触覚デバイス30のモータを制御することによって達成することができる。その結果、ユーザは、アームの重さを支持する必要がない。触覚デバイス30は、たとえば、ユーザがツール50を患者の解剖学的構造の外科的処置部位に向ける用意ができるまで、フリーモードに入れておくことができる。
アプローチモードでは、触覚デバイス30は、重要な構造および解剖学的構造を回避しながらもツール50を標的対象物、たとえば外科的処置部位、患者の解剖学的構造の対象形体および/または患者に位置合わせされた触覚対象物に誘導するように構成される。たとえば、一つの態様で、アプローチモードは、参照により本明細書に組み入れられる米国特許出願第10/384,194号(公開番号US2004/0034283)に記載されているような、ツール50の対話式触覚位置決めを可能にする。もう一つの態様では、触覚レンダリングアプリケーションは、ツール50が、血管、腱、神経、軟組織、骨、既存のインプラントなどのような傷つきやすい形体を回避しながら標的対象物に向けて動くように拘束するアプローチ体積(または境界)を規定する触覚対象物を含むことができる。たとえば、図1に示すように、アプローチ体積は、実質的に円錐形であり、大きな直径から小さな直径まで標的対象物(たとえば脛骨Tの近位端または大腿骨Fの遠位端)の方向に先細りする触覚対象物300を含むことができる。動作中、ユーザは、アプローチ体積の境界内でツール50を自由に動かすことができる。しかし、ユーザがツール50をアプローチ体積の中で動かすと、先細りする漏斗形がツール動を拘束してツール50がアプローチ体積の境界に貫入しないようにする。このようにして、ツール50は外科的処置部位に直接誘導される。もう一つの態様では、図9に示すように、触覚レンダリングアプリケーションが、第一の位置から第二の位置までの経路を表す仮想対象物を生成する。たとえば、仮想対象物は、第一の位置(たとえば物理的空間中のツール50の位置)から、解剖学的構造の標的領域を含む第二の位置(たとえば触覚対象物206のような標的対象物)までの経路を規定する仮想ガイドワイヤ(たとえばライン)である触覚対象物310を含むことができる。アプローチモードでは、仮想対象物がアクティブ化されて、触覚デバイス30の部分(たとえばツール50)の動きが、触覚対象物310によって規定される経路に沿って拘束されるようになる。外科システム10は、ツール50が第二の位置に達した際に仮想対象物を非アクティブ化し、標的対象物(たとえば触覚対象物206)をアクティブ化する。ツール50は、触覚対象物206がアクティブ化されたとき自動的に触覚(またはバーリング)モードに入れられることもできる。好ましい態様では、仮想対象物を非アクティブ化してツール50を経路から逸脱させることもできる。したがって、ユーザは、触覚対象物310と対応する触覚誘導を無視してガイドワイヤ経路から逸脱させ、仮想ガイドワイヤが生成されるときには考慮することができない追跡されない対象物(たとえば開創器、ランプなど)の周囲でツール50を移動させることができる。したがって、アプローチモードは、ユーザが重要な構造および生体構造を避けながらも速やかにツール50を標的対象物に到達させることを可能にする。アプローチモードでは、たとえばユーザがツールを切開部に挿入している、または関節中の軟組織をナビゲートしているときツールが過って励起されないよう、ツール50への動力は好ましくは非アクティブ化される。アプローチモードは一般に触覚モードに先行する。
触覚(またはバーリング)モードでは、触覚デバイス30は、骨調製のような外科的行為中にユーザに触覚誘導を提供するように構成されている。一つの態様では、図9に示すように、触覚レンダリングアプリケーションは、脛骨T上の切削体積を規定する触覚対象物206を含むことができる。触覚対象物206は、脛骨構成部74(図10Bに示す)の面74aの形に実質的に一致する形を有することができる。または、触覚対象物206は、脛骨構成部74の面74aの形よりもわずかに大きい形を有することもできる。触覚対象物206をインプラントよりも大きく作る一つの利点は、触覚対象物206によって規定される切削体積が、インプラントおよびインプラントと骨との間に配置されてインプラントを骨に留めるセメントマントルを収容するのに十分な大きさであることである。インプラントのサイズを逸脱するサイズを有する触覚対象物はまた、図11A〜11Fに関連して先に記載した触覚チューニング機構の具現化を可能にする。触覚デバイス30は、たとえばツール50の先端が対象の形体に関連する既定の点に接近したとき、自動的に触覚モードに入ることができる。触覚モードでは、触覚対象物206はまた、参照により本明細書に組み入れられる米国特許出願第10/384,194号(公開番号US2004/0034283)に記載されているように、複雑な形または強い湾曲を有する形を彫刻するとき触覚デバイス30の性能を改善するために動的に改変させる(たとえば触覚面の部分を動作可能または動作不能にすることによって)こともできる。触覚モードでは、ツール50へのパワーはアクティブ化され、ツール50の先端は、正確な骨切除を可能にするために切削体積の中にとどまるように拘束される。
触覚デバイス30は、適当な任意の触覚制御スキーム、たとえばアドミタンス制御、インピーダンス制御またはハイブリッド制御を使用することができる。アドミタンス制御モードでは、触覚デバイス30は、力入力を受け、位置(または運動)出力を出す。たとえば、触覚デバイス30は、触覚デバイス30上の特定の場所(たとえばユーザインタフェース37)におけるねじれを計測または感知し、触覚デバイス30の位置を変更するように作用する。インピーダンス制御モードでは、触覚デバイス30は、位置(または運動)入力を受け、ねじれ出力を出す。たとえば、触覚デバイス30は、ツール50の位置(すなわち、位置、向き、速度および/または加速度)を計測、感知および/または算出し、適切な対応するねじれを適用する。ハイブリッド制御モードでは、触覚デバイス30は、アドミタンスおよびインピーダンスの両制御を使用する。たとえば、触覚デバイス30の作業空間は、アドミタンス制御が使用される第一のサブ空間と、インピーダンス制御が使用される第二のサブ空間とに分割することができる。好ましい態様では、触覚デバイス30はインピーダンス制御モードで作動する。
外科的処置中、コンピューティングシステム20は、処置を通してユーザを誘導する。たとえば、コンピューティングシステム20は、処置を通して触覚デバイス30を操作するユーザを誘導するように構成された表示を作り出すようにプログラムすることができる。表示は、たとえば、指定の処置ステップに対応する既定のページおよび/またはイメージを含む、表示デバイス23上に示された画面を含むことができる。表示はまた、一つまたは複数のタスクを実施するようユーザを促すこともできる。たとえば、表示は、ユーザに対し、解剖学的構造の表現上で解剖学的ランドマークを選択するよう指示することもできる(図13のステップS3およびS4に関連して以下に論じる)。一つの態様では、図12に示すように、画面は、処置の現在ステップに関連するイメージを表示するためのナビゲーションペイン600、追跡対象物を互いに対して示すための追跡対象物ペイン602、処置の現在ステップに関連する情報、たとえば計測データ、エラーデータ、状態情報、選択ボタンなどを表示するための情報ペイン604および処置中の後続ステップに進んだり、前のステップに戻ったりするためのペイン606を含むことができる。
外科的処置と対応する表示または画面は、処置に関する視覚的情報をユーザに通信するように構成することができる。たとえば、図12に示すように、ナビゲーションペイン600は、解剖学的構造の表現(たとえば骨のイメージまたは表現)および外科ツール50の表現616を生成し、表示することができる。骨調製プロセスの場合、外科システム10は、ユーザが触覚デバイス30を操作するにつれ、骨から除去される物質の部分の表現612を生成し、除去される物質の部分の表現612を骨の表現に重ね合わせ、除去される物質の部分の表現612を、ツール50によって実際に除去された物質の部分の表現614で更新することにより、インプラントを受けるように骨を調製するステップを容易にすることができる。ユーザをさらに支援するため、外科システム10は、骨およびツール50が動くとき、骨の表現およびツール50の表現616を更新することができる。一つの態様で、除去される物質の部分の表現612は、骨と対応する(またはそれに位置合わせされた)仮想対象物の部分に対応する。したがって、仮想対象物は、解剖学的構造から除去される物質の部分を表す。たとえば、仮想対象物は、解剖学的構造に装着されるインプラントの表面の形に実質的に一致する形を有することができる(たとえばセメントレスインプラント用途の場合)。セメント合着インプラント用途の場合、仮想対象物は、インプラントと骨との間にセメントマントルのための余地を残すため、インプラントの形よりも大きい形を有することができる。上記の骨調製ステップは、たとえば、第一の骨(たとえば脛骨T)に対して実施したのち、第二の骨(たとえば大腿骨F)に対して繰り返すことができる。
一つの態様では、除去される骨の部分は、たとえば、周囲の骨の色とは異なる色を使用して示すことができる。たとえば、除去される骨の部分を緑に色付けし、周囲の骨を白く色付けすることができる。ユーザがツール50で骨を除去するにつれ、コンピューティングシステム20は、ナビゲーションペイン600のイメージを、ツール50が所望の切削深さに達した際に色が緑から白に変化するように更新する。同様に、ツール50が所望の切削深さを超えて切削するならば、色は白から赤に変化する。このように、外科システム10は、除去される物質の部分の表現を第一の色で生成し、所望の量の物質が除去されたとき、触覚デバイス30によって除去された物質の表現を第二の色で生成する。触覚デバイスによって除去された物質が所望の量の物質を超えるならば、外科システム10は、除去された物質の表現を第三の色で生成する。好ましい態様では、触覚対象物は、除去される骨の部分に対応する第一の部分、周囲の骨に対応する第二の部分および既定の切削体積の外にある切削深さに対応する第三の部分を有する体積要素(すなわちボクセル)のアレイを含む。第一の部分のボクセルは第一の色(たとえば緑)であることができ、第二の部分のボクセルは第二の色(たとえば白)であることができ、第三の部分のボクセルは第三の色で(たとえば赤)あることができる。ツール50がボクセルに重なると、そのボクセルはクリアされて、それにより、隣接する下にあるボクセルが露呈する。したがって、ユーザがツール50で深く切削しすぎるならば、緑および/または白のボクセルがクリアされて下にある赤のボクセルが露呈することになる。もう一つの態様では、外科システム10は、たとえば、参照により本明細書に組み入れられる米国特許出願第10/621,119号(公開番号US2004/0106916)に記載されているように、ツール50の先端と、患者と位置合わせされた触覚対象物の表面との間の距離の視覚的指示を提供することができる。ナビゲーションペイン600はまた、たとえば、ツール50の現在位置の表現、ツール50の所望の軌道、インプラントの表現などを含むことができる。
コンピューティングシステム20は、ユーザと視覚的に通信することに加えて、可聴信号を発する(たとえば音響装置を介して)ようにプログラムすることもできる。たとえば、一つの態様では、コンピューティングシステム20は、ツール50の切削深さが浅すぎる、ほぼ正しいまたは深すぎることを示す音(たとえばビープ音)を発することもできる。もう一つの態様では、外科システム10は、たとえば、参照により本明細書に組み入れられる米国特許出願第10/621,119号(公開番号US2004/0106916)に記載されているように、ツール50の先端と患者と位置合わせされた触覚対象物の表面との間の距離の可聴指示を提供することもできる。コンピューティングシステム20はまた、触覚デバイス30を制御して感触フィードバック、たとえばツール50が所望の切削深さに達したまたはそれを超えたことを示す振動をユーザに提供するようにプログラムすることもできる。コンピューティングシステム20のソフトウェアはまた、特定のタスクを実施する、たとえば診断イメージデータセットのイメージをセグメント化する、機械軸を規定するために患者の解剖学的構造上の点を選択する、骨の表面上の点に位置合わせプローブでタッチする(または「ペイント」する)、データ(たとえばインプラントサイズ、バーサイズなど)を入力するなどを実行するよう自動的にユーザを促すプログラムまたはプロセスを含むことができる。
図13は、膝単顆置換の外科プラニングおよびナビゲーションのために外科システム10を使用するプロセスの態様を示す。図13のプロセスは、例示としてのみ意図したものである。他の態様では、特定の外科用途に適した任意の方法でプロセスのステップの順序を再編成してもよい。さらには、他の態様は、図13に示すステップの全部、いくつかまたは部分のみを含むことができ、図13のステップのいずれかを既存および/または後に開発される外科的方法と組み合わせることもできる。図13のプロセスで詳述された膝単顆置換処置は膝の内側に対するものである。しかし、同じプロセスを膝の外側に使用することもできる。そのうえ、例示する単顆処置は例を示すに過ぎない。外科システム10はまた、インプラントの設置を伴う膝全置換処置または他の関節置換処置を実施するために使用することもできる。インプラントは、任意のインプラントまたは補てつ具、たとえば膝全インプラント、膝単顆インプラント、モジュラー膝インプラント、他の関節、たとえば股関節、肩、肘、手首、足首および脊椎のためのインプラントおよび/または他任意の整形外科および/または筋骨格インプラント、たとえば従来材料のインプラントおよびより新規なインプラント、たとえばオルトバイオロジックス、薬物送達インプラントおよび細胞送達インプラントを含むことができる。一つの態様では、インプラントは、全体が参照により本明細書に組み入れられる2005年12月30日に出願された米国特許出願第11/312,741号に記載されているようなモジュラー膝インプラントである。
図13の態様では、ステップS1〜S4は術前に実施され、ステップS5からS14は術中に実施される。ステップS1で、患者情報またはデータを外科システム10に入力することができる。ステップS2で、術前診断イメージ(たとえばCTデータファイル)を外科システムにロードし、セグメント化する。ステップS3で、大腿骨ランドマークを選択する。ステップS4で、脛骨ランドマークを選択する。ステップS5で、ホーミングプロセスを触覚デバイス30に対して実施して触覚デバイス30のアーム33中の位置センサを初期化する。ステップS6で、位置合わせプローブの較正を検証する。ステップS7で、解剖学的構造トラッカ43aおよび43bを患者に取り付ける。ステップS8で、患者解剖学的構造を位置合わせする。ステップS9で、触覚デバイス30を較正する。ステップS10で、脛骨インプラント(たとえば図16Bに示す脛骨構成部74)の初期配置をプラニングする。初期配置の深さは、脛骨プラトー軟骨の表面上で選択される点によって誘導し、ステップ8で計算された位置合わせを使用して表示デバイス23上のプラニング画面に移すことができる。ステップS11で、脛骨Tを調製または彫刻する。ステップS12で、脛骨トライアルインプラントを脛骨Tの調製面に装着する。ステップ13で、たとえば、脚の種々の屈曲における脛骨トライアルインプラントの位置に関連する点を使用して、大腿骨インプラント(たとえば図16Aに示す大腿骨構成部72)の初期配置をプラニングする。ステップS14で、大腿骨Fを調製または彫刻する。ステップS15で、大腿骨トライアルインプラントを大腿骨Fの調製面に装着する。大腿骨構成部72および脛骨構成部74を設置する前に、ユーザが大腿骨および脛骨トライアルインプラントの装着を評価し、任意の所望の調節を加える(たとえばインプラントプラニングおよび/または骨彫刻を繰り返す)トライアル整復プロセスを実施する。
ステップS1で、患者情報を外科システム10に入力することができる。たとえば、外科システム10は、患者に関する情報を要求する画面を表示デバイス23上に表示することができる。患者情報は、任意の該当する患者データ、たとえば氏名、生年月日、身分証明番号、性別、身長および体重を含むことができる。患者情報はまた、実施される処置に関する情報、たとえて適切な脚(たとえば左または右)を指定する情報、置換される関節の部分(内側、外側、全)を指定する情報および患者の解剖学的構造の術前診断イメージデータファイル(たとえばCTデータファイル)を選択する情報を含むこともできる。患者情報は、任意の公知の方法で外科システム10に入力することができる。たとえば、ユーザが患者情報を直接入力することもできるし、病院ネットワークまたは電子記憶媒体から患者情報を外科システム10にダウンロードすることもできる。好ましくは、患者情報は、患者の解剖学的構造がイメージングされたときに記録され、イメージデータファイル(たとえばCTデータファイル)にセーブされ、以下のステップS2でイメージデータファイルとともに外科システム10にロードされる。コンピューティングシステム20はまた、ユーザに関連する情報(たとえば氏名、身分証明番号、PIN番号など)、外科的処置施設および/または本人確認、セキュリティもしくは記録管理目的に有用な他任意の情報を要求することもできる。患者データとともにユーザ情報をイメージデータファイルに含めることもできる。防護手段として、コンピューティングシステム20は、外科システム10に入力された患者情報を検証するよう外科医(または他の有資格医療専門家)を促す検証機構を含むことができる。
ステップS2で、術前診断イメージ(たとえば、上肢のイメージ、膝のイメージおよび下肢のイメージ)を含むイメージデータファイルを外科システム10にロードすることにより、解剖学的構造の表現を生成する。診断イメージが解剖学的構造の表現を構成する。イメージをセグメント化することによって解剖学的構造のさらなる表現を作り出すこともできる。たとえば、外科システム10は、大腿骨Fのセグメント化プロセスを通してユーザを誘導するための画面81a(図15に示す)および脛骨Tのセグメント化プロセスを通してユーザを誘導するための画面81b(図16に示す)を表示することができる。図15および16に示すように、術前診断イメージは、対象の解剖学的構造に及ぶセグメントまたはスライスに分割される。セグメント化データは、外科システム10により、患者の解剖学的構造の表現、たとえば第一の骨の表現および第二の骨の表現を生成するために使用される。第一および第二の骨は、大腿骨Fおよび脛骨T(またはその逆)であることができる。一つの態様では、セグメント化によって作り出された対象物境界(たとえば骨または軟骨面における)に基づいて、解剖学的構造を表す三次元コンピュータモデルが生成される。セグメントまたはスライスの数が多くなればなるほど、モデルの精度は高くなる。一つの態様では、対象の解剖学的構造の部分で取られるスライスの数は30スライスである。もう一つの態様では、取られるスライスの数は20スライス〜100スライスの範囲であることができる。セグメント化プロセスは、適当な任意のセグメント化法、たとえばテキスチャベースのセグメント化、しきいベースの対話式セグメント化、領域ベースの対象物セグメント化および/またはポリゴンベースのマニュアルトレーシングを使用することができる。一つの態様では、「ライブワイヤ」として知られる「エッジメジャー」ベースの対話式セグメント化が使用される。
ステップS3およびS4で、ユーザが、第一の骨の表現および第二の骨の表現上にランドマークを指定する。たとえば、ステップS3で、ユーザは、大腿骨Fのイメージ上に大腿骨ランドマークを指定することができる。大腿骨ランドマークは、外科システム10により、患者の物理的解剖学的構造をその解剖学的構造の表現(たとえば診断イメージ、セグメント化から作り出したモデル、解剖学的モデルなど)と対応(または位置合わせ)させるために使用される。図17〜19に示すように、外科システム10は、大腿骨ランドマークを指定する際にユーザを誘導するための画面それぞれ82a、82bおよび82cを作り出す。たとえば、外科システム10は、股関節中心(図17)、内側上顆(図18)および外側上顆(図19)を指定するようユーザに指示することができる。一つの態様では、ユーザは、表示イメージ上でマウスまたはタッチスクリーンを使用して大腿骨ランドマークを選択することができる。もう一つの態様では、コンピュータを、たとえば診断イメージ中の示差的特徴を見つけるように設計されたアルゴリズムを使用してイメージ上の大腿骨ランドマークの場所を決定するようにプログラムすることもできる。
同様に、ステップS4で、ユーザは、脛骨Tのイメージ上で脛骨ランドマークを指定することができる。脛骨ランドマークは、外科システム10により、患者の物理的解剖学的構造をその解剖学的構造の表現(たとえば診断イメージ、セグメント化から作り出したモデル、解剖学的モデルなど)と対応(または位置合わせ)させるために使用される。図20〜23に示すように、外科システム10は、脛骨ランドマークを指定する際にユーザを誘導するための画面それぞれ83a、83b、83cおよび83dを作り出す。たとえば、外科システム10は、内果(図20)、外果(図21)、回旋ランドマーク(図22)および膝中心(図23)を指定するようユーザに指示することができる。図22に示すように、回旋ランドマークは、たとえば、画面83c中の解剖学的構造の横断ビューの前方部および後方部に対して平行になるようユーザが調節する交軸183であってもよい。回旋ランドマークは、外科システム10が、診断イメージにおいて脚Lの任意の回旋を考慮に入れ(たとえば、脚Lが、的確な前後方向のアライメントではなく、側方に寄りかかる状態でCTスキャンが撮られたならば)、前後の部分が整列するように横断ビューを調節することを可能にする(たとえば図35のフレーム806に示すとおり)。一つの態様では、ユーザは、表示イメージ上でマウスまたはタッチスクリーンを使用して脛骨ランドマークを選択することができる。もう一つの態様では、コンピュータを、たとえば診断イメージ中の示差的特徴を見つけるように設計されたアルゴリズムを使用して脛骨ランドマークを決定するようにプログラムすることもできる。
ステップS5で、ホーミングプロセスが触覚デバイス30の位置センサ(たとえばエンコーダ)を初期化してアーム33の初期ポーズを決定する。ホーミングは、たとえば、各ジョイントエンコーダがそのエンコーダ上のインデックスマークが読み取られるまで回転するようにアーム33を操作することによって達成することができる。インデックスマークは、ジョイントの既知の絶対位置に相関するエンコーダ上の絶対的基準である。したがって、ひとたびインデックスマークが読み取られると、触覚デバイス30の制御システムは、ジョイントが絶対的位置にあることを知る。アーム33が動き続けると、エンコーダの絶対位置およびその後の変位に基づいてジョイントの後続位置を算出することができる。外科システム10は、ユーザがアーム33を配置すべき位置に関する指示を提供することにより、ホーミングプロセスを通してユーザを誘導することができる。指示は、たとえば、アーム33を移動させるべき位置を示す、表示デバイス23上に表示されたイメージを含むことができる。
ステップS6で、器具(たとえば器具150のような位置合わせプローブ)をチェックしてその器具が較正されていることを検証する。たとえば、ステップS6は、位置合わせプローブが正しい物理的解剖学的構造を有していることを検証するために使用することができる。器具トラッカ49に関連して先に論じたように、器具トラッカ49を含むプローブの較正は、プローブの先端をエンドエフェクタトラッカ47のくぼみ47aに挿入し、先端を所定位置に保持し、器具トラッカ49およびエンドエフェクタトラッカ47を検出デバイス41で検出することによって達成することができる。検出デバイス41がポーズデータを取得し、外科システム10がトラッカ49と47との間の実際の幾何学的関係をトラッカ49と47との間の予想された幾何学的関係と比較する。実際の幾何学的関係と予想された幾何学的関係との間の逸脱が、プローブの一つまたは複数の物理的パラメータが較正を逸していることを示す。図24に示すように、検証プロセス中、外科システム10は、プローブ、器具トラッカ49およびエンドエフェクタトラッカ47のグラフィカル表現を示す画面84を表示デバイス23上に表示することができる。
ステップS7の前に、患者が手術室に到着する。図1に示すように、患者(脚Lだけを示す)は手術台102に位置決めされ、触覚デバイス30が、患者に対し、処置に有用な様々なポーズを達成することができるように位置決めされる。適切なレベルの無菌性を達成するため、触覚デバイス30を適当な任意の方法で滅菌してもよい。たとえば、エンドエフェクタ35およびツール50は、従来の滅菌法を使用して滅菌することができ、触覚デバイス30の他の部分は、滅菌することもできるし、無菌カバーまたはドレープで覆うこともできる。一つの態様では、触覚デバイス30のアーム33およびベース32は無菌プラスチックラップで覆われ、プラットフォーム39は無菌ドレープで覆われる。
患者の脚Lを持ち上げ、脚Lを様々な角度に曲げることができるよう、脚Lを、様々な位置に動かすことができるレッグホルダ(または支持デバイス)で支持または保定することもできる。一つの態様では、レッグホルダは、手で調節可能なレッグホルダ62である。図14Aに示すように、レッグホルダ62は、ベース64に滑動可能に配置され、ヒンジ62cで接続された第一の部分62aおよび第二の部分62bを含む。ベース64は、第一および第二の部分62aおよび62bを所定位置に固定するためのロック機構(図示せず)を含む。脚Lは、適当な任意の方法で、たとえば一つまたは複数のストラップ63を使用してレッグホルダ62に留めることができる。脚Lの骨のポーズを追跡する(たとえば、解剖学的構造トラッカ43aおよび43bまたは機械的追跡システム240を用いて)ことに代わりに、またはそれに加えて、レッグホルダ62のポーズを追跡することもできる(たとえば、上記のように位置センサ、非機械的追跡システムまたは機械的追跡システムを用いて)。レッグホルダ62だけを追跡するのならば、脚Lは、脚Lとホルダ62との間の相対動を防ぐのに十分に固くレッグホルダ62に留められる(たとえばストラップ63によって)べきである。動作中、脚Lを動かすには、ユーザが脚L(またはレッグホルダ62)を操作して第一および第二の部分62aおよび62bがベース64に沿って滑動し、ヒンジ62cを中心に屈曲するようにする。ヒンジ62cを中心とする屈曲がレッグホルダ62の角度αを増減させる。レッグホルダ62は、好ましくは、角度αを約0°〜約180°に調節することができるように構成されている。その結果、脚Lは、完全に伸ばした位置と完全に曲げた位置との間で動かすことができる。脚Lが動くと、患者の膝の側面に設けられた切開部128(たとえば最小侵襲切開)が脚Lに沿ってシフトする。切開部128のシフトは、外科医がその同じ切開部を使用して器具を挿入して脛骨Tの近位端および大腿骨Fの遠位端の両方を彫刻することを可能にする。その結果、複数の切開を回避することができ、切開部128のサイズを小さいままにすることができる。
もう一つの態様では、レッグホルダ62は、たとえば、コンピュータ21および/またはコンピュータ31によって制御される位置センサ(たとえばエンコーダ)およびモータの追加によって自動化することができる。モータは、レッグホルダ62が全自動化されることを可能にすることもできるし、単に、レッグホルダ62を位置決めする際にユーザを支援するためのパワーアシスト機能を実施することもできる。レッグホルダ62を全自動化する一つの利点は、自動化されたレッグホルダを外科システム10によって制御して脚Lを正しい位置に自律的に動かすことができることであり、これが、脚Lを物理的に操作し、脚Lにとって正しい位置を推測する困難からユーザを解放する。たとえば、自動レッグホルダ(または支持デバイス)を制御するプロセスは、第一の骨(たとえば脛骨T)および/または第二の骨(たとえば大腿骨F)をレッグホルダ62に入れ、レッグホルダ62を作動させて第一の骨および/または第二の骨を第一の位置から第二の位置に動かすことを含むことができる。プロセスはまた、第一の骨および/または第二の骨の実際のポーズを決定する(たとえば解剖学的構造トラッカ43aおよび43bから)ステップ、第一の骨および/または第二の骨の所望のポーズを決定するステップ、およびレッグホルダ62を作動させて第一の骨および/または第二の骨を実際のポーズから所望のポーズに動かすステップを含むこともできる。レッグホルダ62が動くと、外科システム10は、第一の骨および/または第二の骨の位置をモニタすることができる。第一の骨および/または第二の骨が所望のポーズになると、プロセスは停止する。第一および第二の骨の位置を追跡することに加えて、レッグホルダ62の位置をモニタしてもよい(たとえばレッグホルダ62上の位置センサを使用)。
もう一つの態様では、図14Bに示すように、外科システム10はレッグホルダ162を含む。外科的処置中、レッグホルダ162は、手術台102または他の適当な構造に据え付けることができる。患者の脚Lの上部がレッグホルダ162中で支持体164の上に載り、脚Lの下部が自由に懸垂するようになる。このような手法は、脚Lの懸垂部に作用する重力が膝関節を引いて開かせ、それによって関節へのより大きなアクセスを提供するため、有利である。
ステップS7で、外科システム10は、解剖学的構造トラッカ43aおよび43bを患者に取り付けるようユーザを促す。図25に示すように、外科システム10はまた、ユーザが検出デバイス41に対する追跡対象物の位置決めを最適化することを可能にする画面85を作り出すことができる。たとえば、画面85は、検出デバイス41の表現85aおよび検出デバイス41の視野の表現85bを含むことができる。画面はまた、解剖学的構造トラッカ43aの表現F1、解剖学的構造トラッカ43bの表示T1、触覚デバイストラッカ45の表現Hおよび/または検出デバイス41の視野85aに対する他任意の追跡可能要素の表現を表示することができる。一つの態様では、表現F1、T1およびHそれぞれは、ユーザが追跡対象物それぞれの間で区別することができるよう、異なる色で表示される。もう一つの態様で、表現F1、T1およびH1は、追跡対象物が検出デバイス41の視野の境界の近くに来たとき、異なる色に変化することもできる。このようにして、ユーザは、追跡対象物が検出デバイス41の視野の中に十分に位置しているかどうかを決定することができる。
一つの態様では、ひとたび解剖学的構造トラッカ43aおよび43bが取り付けられると、膝関節の可動域(ROM)が捕捉される(たとえば膝関節をROMで動かす間に追跡システム40によって解剖学的構造トラッカ43aおよび43bを追跡することによって)。捕捉されたROMデータは、大腿骨および脛骨インプラントの相対的配置を評価するために使用することができる。たとえば、術前イメージデータへの物理的な患者への位置合わせによって拡張されたROMデータは、ユーザが、患者の軟組織の現在状態と合致した相対的インプラント位置をプラニングすることを可能にする(たとえば病状、年齢、体重、現在のROMなどに基づく)。一つの態様では、埋植深さは、設置されるインプラントが患者の膝の既存の関節間隙(すなわち、脛骨Tと大腿骨Fとの間に術前に存在する間隙)を埋めるようにプラニングすることができる。加えて、他の重要なパラメータ、たとえば十分な接触、前後の被覆範囲およびインプラント対の適切な相対回旋を膝関節のROMによって査定することができる。このようにして、任意の骨を切削する前に両方のインプラントのための包括的配置プラニングを実施することができる。ROMデータはまた、大腿骨インプラントと脛骨インプラントとの相対位置を、伸展状態、屈曲状態および伸展状態と屈曲状態との間の様々な角度で、表示デバイス23上に表示するために使用することもできる(たとえばインプラントプラニングステップS10およびS13中)。
解剖学的構造トラッカ43aおよび43bが患者に固定されたのち、プロセスはステップS8に進み、そこで、患者の物理的解剖学的構造がその解剖学的構造の表現に位置合わせされる。たとえば、患者の大腿骨Fおよび脛骨Tは、標準的なやり方で、ステップS3およびS4でそれぞれ指定した大腿骨および脛骨ランドマークに基づく対合点/面適合手法を使用して位置合わせすることができる。外科システム10は、位置合わせプロセスを通してユーザを誘導するための画面を作り出す。たとえば、画面86a(図26)は、ユーザに対し、大腿骨Fを回旋させて脚Lの股関節の中心を見いだすよう指示する。一つの態様では、外科システム10は、大腿骨Fの回旋中に解剖学的構造トラッカ43aの運動に基づいて大腿骨Fのピボット点の中心を決定することにより、股関節中心を決定する。画面86b、86c、86d、86eおよび86f(それぞれ図27、28、29、30および31に示す)は、ユーザに対し、位置合わせプローブを種々の解剖学的構造ランドマーク(たとえば内果、外果、内側上顆、外側上顆、前十字靱帯(ACL)アタッチメントの後縁など)にポイントし、ランドマークを選択するよう指示する。たとえば、ユーザは、追跡される位置合わせプローブの先端を該当するランドマークに置き、フットペダルまたは他の入力デバイス25によってそのランドマークを選択することができる。ユーザがランドマークを選択すると、検出デバイス41が、位置合わせプローブのポーズに関連するデータを取得し、そのデータを使用してランドマークの場所を算出する。診断画像におけるランドマークポーズデータおよびランドマーク指定(ステップS3およびS4)に基づき、外科システム10は、患者上の物理的ランドマークと診断イメージ中のランドマークとの間の対応を決定することにより、物理的解剖学的構造を診断イメージに位置合わせする。このランドマークベースの位置合わせの精度は、大腿骨Fおよび脛骨Tのための表面データを取得することによって改善することができる。たとえば、外科システム10は、ユーザに対し、大腿骨Fの遠位端の表面上の点に位置合わせプローブでタッチする(または「ペイント」する)よう指示する画面86g(図32)を生成することができる。ユーザが表面をペイントすると(たとえば位置合わせプローブの先端を切開部128に挿入することにより)、外科システム10は、プローブ先端の位置を定期的に取得し、取得した先端位置を画面86g上にドット900として表示する。軟骨で覆われた骨表面の場合、鋭いプローブを使用して軟骨を穿刺し、骨の表面上の点(軟骨の表面上の点ではない)を収集することができる。同様に、外科システム10は、画面86h(図33)を作り出し、ユーザに対し、脛骨Tの近位端の表面を位置合わせプローブでペイントするよう指示する。ユーザが表面をペイントすると(たとえばプローブの先端を切開部128に挿入することにより)、外科システム10は、プローブ先端の位置を定期的に取得し、取得した先端位置を画面上にドット900として表示する。大腿骨の場合と同様、鋭いプローブを使用して任意の軟骨を穿刺し、骨の表面上の点(軟骨の表面上の点ではなく)を収集することができる。さらには、フック付きプローブを使用して、脛骨プラトーの後縁における点の収集を容易にすることもできる。
ステップS9で、触覚デバイス30を較正して、触覚デバイス30の基準座標フレームと触覚デバイストラッカ45との間の幾何学的関係を確立する。触覚デバイストラッカ45が触覚デバイス30上で永久的な位置に固定されるならば、トラッカ45と触覚デバイス30との間の幾何学的関係が固定的であり、既知である(たとえば、製造またはセットアップ中の初期較正から)ため、較正は不要である。対照的に、トラッカ45が触覚デバイス30に対して動くことができるならば(たとえば、トラッカ45が据え付けられているアーム34が調節可能である場合)、トラッカ45と触覚デバイス30との間の幾何学的関係を決定するために較正が必要である。外科システム10は、ユーザに対し触覚デバイス30を較正するよう指示する画面87(図34に示す)を作り出すことによって較正プロセスを開始する。較正は、触覚デバイストラッカ45を触覚デバイス30上の固定位置に留め、エンドエフェクタトラッカ47を一時的にエンドエフェクタ35に固着することを含む。そして、エンドエフェクタ35を解剖学的構造の付近の様々な位置(たとえば膝関節の上および下の位置、膝関節に対して内側および外側の位置)に動かすと、その間に追跡システム40が各位置における追跡システム40に対するトラッカ47および45のポーズデータを取得する。加えて、外科システム10は、アーム33中の位置センサからのデータに基づいて、触覚デバイス30に対するエンドエフェクタ35のポーズを決定する。取得したデータを使用して、外科システム10は、触覚デバイストラッカ45と触覚デバイス30の基準座標フレームとの間の幾何学的関係を算出することができる。その後、エンドエフェクタトラッカ47を触覚デバイス30から除去することができる。外科的処置中、外科システム10は、(a)ツール50とエンドエフェクタ35との間の既知の幾何学的関係、(b)触覚デバイス30に対するエンドエフェクタ35のポーズ(たとえばアーム33中の位置センサから)、(c)較正中に決定された触覚デバイス30と触覚デバイストラッカ45との間の幾何学的関係、および(d)触覚デバイス30の広域的または大まかな位置(たとえば、追跡システム40に対する触覚デバイストラッカ45のポーズから)に基づいてツール50のポーズを決定することができる。直前の較正以来、触覚デバイストラッカ45が触覚デバイス30に対して移動しておらず、直前に取得された較正データがまだ信頼しうるものであるならば、ステップS9の較正プロセスを実施する必要はない。
ステップS10で、ユーザは、第一のインプラントを第一の骨に埋植するための骨調製をプラニングする。好ましい態様では、第一の骨は脛骨Tであり、第一のインプラントは脛骨構成部74であり、骨調製は、脛骨Tの近位端上の、脛骨構成部74が設置される場所を選択することによってプラニングされる。インプラントプラニングを容易にするため、外科システム10は、第一および第二の骨(すなわち、それぞれ脛骨Tおよび大腿骨F)の表現の様々なビューを含む画面88b(図35に示す)を生成する。たとえば、画面88bは、三次元レンダリングを示すフレーム800、矢状ビューを示すフレーム802、冠状ビューを示すフレーム804および横断ビューを示すフレーム806を含むことができる。さらには、フレーム807が、選択ボタンならびにインプラント配置および選択に関するデータ、たとえばインプラントサイズ、深さ、内/外角、内反/外反角、屈曲角などを表示することができる。さらには、大腿骨Fの機械軸(たとえば股関節中心または大腿骨頭から膝中心までの軸)および/または脛骨Tの機械軸(たとえば膝中心から足首中心までの軸)を表示してインプラントプラニングを支援することもできる。ユーザは、複数の異なる画像のスライスまたは三次元再構築を選択し、表示することができ、脛骨T(または大腿骨F)の表面を表す輪郭をスライスイメージに重ねてインプラントプラニングを容易にすることができる。一つの態様で、外科システム10は、適切なサイズの脛骨インプラントおよび配置場所を提案し、脛骨インプラントの表現(またはインプラントモデル)808bを脛骨Tの表現と対応させる。ユーザを視覚的に支援するため、外科システム10はまた、脛骨インプラントの表現808bを脛骨Tの表現に重ね合わせることもできる。ユーザは、提案された配置を修正するオプションを有する。たとえば、ユーザは、インプラントモデル808bのサイズ、前後位置、内側/外側位置および回旋を変更することもできる(たとえば、マウスを用いてインプラントモデル808bをドラッグまたは調節することにより)。フレームの一つにおいてインプラントモデル808bに加えられた変更は、残りのフレーム中のインプラントモデル808bを自動的に更新させる。ユーザが脛骨インプラントプラニングを完了すると、外科システム10は、選択された場所を記憶する。インプラントプラニングは、所望により、外科的処置中の任意の時機に、たとえば骨調製の前、最中および/または後で繰り返し、調節することができる。
脛骨構成部74の場所は、たとえば、外科的判断に基づいて、脛骨構成部74を脛骨プラトー上で大まかにセンタリングし、時間とともに起こる沈下を回避するために脛骨構成部74を硬い骨の上に位置決めし、脛骨構成部74を一つまたは複数のランドマークから所望の距離のところに位置決めするように選択することもできるし、追跡されるツールによって特定される軟骨面に基づいて選択することもできる。一つの態様では、ユーザは、インプラントモデル808b(図35に示す)を大まかな埋植区域に動かすことにより、脛骨構成部74のための場所を選択する。フレーム806の横断ビューを使用して、ユーザは、インプラントモデル808bを、インプラントモデル808bの平坦な側が前十字靱帯(ACL)および後十字靱帯(PCL)アタッチメント点に対してほぼ平行になるよう、回旋方向に調節する。フレーム807中の内/外角寸法(「外」と表記)が、結果的に得られる内/外角を表示する。フレーム804の冠状ビューを使用して、ユーザは、インプラントモデル808bの内反/外反角を調節する。フレーム807中の内反/外反角(「内反」と表記)寸法が、結果的に得られる内反/外反角を表示する。フレーム802の矢状ビューを使用して、ユーザは、インプラントモデル808bの後方傾きを調節する。フレーム807中の屈曲角寸法(「屈曲」と表記)が、結果的に得られる屈曲角を表示する。ユーザは、フレーム807中の深さバー(「深さ」と表記)を調節することにより、脛骨T中のインプラントモデル808bの深さを調節することができる。ユーザはまた、フレーム807中のサイズ選択ボックス(「サイズ」と表記)を使用してインプラントモデル808bのサイズを変更することもできる。インプラントモデル808bの位置決めを支援するため、ユーザは、フレーム807中のボタン(「軸を表示」と表記)を使用して機械軸を表示することができる。フレーム807はまた、ユーザが脛骨インプラントと大腿骨インプラントとを同時に画面88b上に表示することを可能にするためのボタン(「両インプラント」と表記)を含むことができる。
好ましい態様で、脛骨構成部74の配置を選択する際、膝の関節間隙中の軟組織を考慮に入れる。たとえば、第一のインプラント(すなわち、脛骨インプラント74)は、脛骨構成部74の上面が関節間隙中の軟骨の上面と整合するようにプラニングすることができる。このような手法は、インプラント性能および寿命を改善することができる関節空間の生来の構造を有利に保全する。この態様では、第一の骨(すなわち脛骨T)の上の軟骨面の高さが検出され、第一の骨の表現および軟骨面の高さの表現が生成され、第一のインプラントを第一の骨の上に埋植するための骨調製は、少なくとも一部には、軟骨面の検出された高さに基づく。たとえば、軟骨の上面は、追跡されるプローブの先端を軟骨の上面上の点に置き、その点をフレーム807中のボタン(「点をマッピング」と表記)で選択することによって検出(またはマッピング)することができる。軟骨面の高さの表現は、数値表現(たとえば第一の骨から軟骨面までの距離)および/または視覚的表現(たとえば、マッピングした点をフレーム800中で点809として表示することができる)を含むことができる。いくつかの軟骨点をマッピングすることができる(たとえば、前方点、後方点、内側点)。ユーザは、たとえばインプラントモデル808bの深さを、インプラントモデル808bの上縁がマッピングされた軟骨点809と整合するように調節することにより、第一のインプラントの表現(すなわち、インプラントモデル808b)の少なくとも一部を軟骨面の高さの表現(すなわち点809)と整合させる。したがって、この態様では、外科システム10は、第一の骨の領域中の軟骨の検出された場所に少なくとも部分的に基づいて、第一のインプラントの表現を第一の骨の表現と対応させる。このようにして、脛骨プラトー上の軟骨の厚さに基づいて脛骨構成部の深さを選択することができる。したがって、外科システム10は、ユーザが、任意の骨を切削する前に、脛骨構成部74の上面を軟骨の上面と整合させる脛骨構成部74の配置を決定することを可能にする。
望むならば、ステップS10で、ユーザはまた、第二の骨(すなわち大腿骨F)への第二のインプラント(すなわち大腿骨構成部72)の初期配置を術前にプラニングすることもできる。しかし、好ましくは、ステップ10は、第一のインプラント(すなわち脛骨構成部74)の術前プラニングのみを含む。大腿骨プラニングは、大腿骨Fに対する脛骨トライアルの位置に基づいて大腿骨構成部のサイズ、内/外回旋および内/外位置を決定することができるよう、脛骨Tの彫刻(ステップS11)およびトライアル装着(ステップS12)の後まで延期される。
ステップS11〜S15は骨調製プロセスを含む。ステップS11で、ツール50を操作して第一の骨を彫刻することにより、第一のインプラント(たとえば脛骨構成部74)を受けるように第一の骨(たとえば脛骨T)を調製する。ステップS12で、トライアルインプラントを第一の骨の調製された形体に装着する。ステップS13で、第二のインプラント(たとえば大腿骨構成部)の初期配置をプラニングする(または、以前にプラニングした第二のインプラントの配置を再訪または調節してもよい)。ステップ14で、第一の骨の調製ののち第二のインプラントを受けるように第二の骨(たとえば大腿骨F)を調製する。ステップS15で、トライアルインプラントを第二の骨の調製された形体に装着する。
骨調製(または彫刻)は、たとえば、球面バーを使用して、骨の形がインプラントの嵌合面の形と実質的に合うように骨を彫刻または成形することによって達成することができる。ユーザは、はじめに大腿骨Fまたは脛骨Tを調製するオプションを有する。好ましい態様では、脛骨Tをはじめに調製し(ステップS11)、脛骨Tの調製された面に脛骨トライアルインプラントを装着する(ステップS12)。次いで、大腿骨構成部72の配置をプラニングし(ステップS13)、続いて大腿骨Fを調製する(ステップS14)。このような手法は、脚の様々な屈曲状態における脛骨トライアルインプラントと大腿骨Fとの間の物理的関係に基づいてユーザが大腿骨構成部72の配置をプラニングすることができるため、有利である。さらには、脛骨Tおよび大腿骨Fの彫刻の前に、大腿骨Fの内側後顆の部分(たとえば厚さ3mmの区分)を矢状鋸子で除去することが好ましい。後顆のこの部分の除去は、脛骨構成部74に対する後顆の骨衝突の可能性を減らし、膝関節中にさらなる作業空間を提供する。
外科的処置を通して、外科システム10は、解剖学的構造の動きをモニタして解剖学的構造の動きを検出し、コンピュータ21および/またはコンピュータ31上で稼働するプログラムに対して適切な調節を加える。一つの態様では、外科システム10は、検出された動きに応答して解剖学的構造の表現を調節する。たとえば、外科システム10は、第一の骨の動きに応答して第一の骨(すなわち脛骨T)の表現を調節し、第二の骨の動きに応答して第二の骨(すなわち大腿骨F)の表現を調節する。外科システム10はまた、解剖学的構造の検出された動きに応答してその解剖学的構造と対応する仮想対象物を調節することができる。たとえば、仮想対象物は、インプラントの表現を含む仮想境界(たとえば、仮想境界はインプラントの表面の形に一致することができる)を含むことができる。骨調製がプラニングされると、外科システム10は、インプラントの表現を、そのインプラントが埋植される骨の表現と対応させる。外科的処置中、外科システム10は、骨の動きに応答して仮想境界を調節する。
ステップS11で、ツール50を操作して第一の骨を彫刻することにより、第一のインプラントを受けるように第一の骨を調製する。一つの態様では、脛骨Tの近位端に内側脛骨ポケット形体を成形することにより、脛骨Tを調製する。脛骨構成部分74を設置すると、内側脛骨ポケット形体は脛骨構成部74(図10Bに示す)の表面74aと嵌合する。図36に示すように、外科システム10は、脛骨Tのグラフィカル表現、たとえば骨のうち除去される部分618の表現612ならびにツール先端616aおよびツールシャフト616bを示すツール50のグラフィカル表現を示す画面89を表示する。画面89は、場合によっては、反対側の骨(すなわち、第二の骨または大腿骨F)の位置を表示してユーザが過って反対側の骨の面を切削することを回避するよう誘導することができる。除去される骨の部分618は、好ましくは、周囲の骨とは異なる色に色付けされる。たとえば、部分618を緑に色付けし、周囲の骨を白く色付けしてもよい。触覚デバイス30は、アプローチ経路の形態の触覚対象物(たとえば図1に示す触覚対象物300、図9に示す触覚対象物310)が、ツール50の先端を切開部128に誘導し、患者の対象の形体(すなわち、患者解剖学的構造上の骨のうち、画面89上にグラフィカルに表現された部分618に対応する部分)に向かわせる際にユーザを援助するアプローチモードに入る。アプローチモードでは、ツール50が切開部128を横切り、対象の形体へナビゲートされるとき、過って切削することを避けるよう、動作不能にされる。外科システム10は、たとえばツール50の先端が対象の形体に関連する既定の点に接近するした、触覚デバイス30を自動的に触覚(またはバーリング)モードに入れる。触覚デバイス30が触覚モードに入ると、外科システム10はまた、妨害検出アルゴリズムを起動する。
妨害検出アルゴリズムは、触覚デバイス30が触覚(またはバーリング)モードにある間に触覚デバイストラッカ45または解剖学的構造トラッカ43aもしくは43bの一方が任意の時機に妨害された場合にツール50へのパワーを遮断する安全機構である。妨害状態が検出されるならば、妨害検出アルゴリズムはまた、警告メッセージを表示デバイス23上に表示したり、可聴アラームを鳴らしたり、ツール50へのパワーを遮断したりすることができる。したがって、妨害検出アルゴリズムは、追跡システム40がツール50と解剖学的構造との相対的位置を追跡することができない場合、ツール50が解剖学的構造を損傷することを防ぐ。たとえば、一つの態様では、妨害検出アルゴリズムが妨害状態を検出するならば、外科システム10は、ツール50が触覚対象物の触覚境界に触れているかどうかを決定する。ツール50が触覚境界と接触していないならば、妨害検出アルゴリズムは触覚デバイス30をフリーモードに入れて、ツール50が患者とともに動き、必要ならば、患者から抜き取ることができるようにする。妨害状態が終了すると(たとえば、妨害されたトラッカが再び見えるようになると)、外科システム10は、触覚デバイス30をアプローチモードに入れてユーザが処置を再開することができるようにする。対照的に、外科システム10が、ツール50が妨害状態中に触覚境界に触れていると決定するならば、妨害検出アルゴリズムは所定の期間(たとえば1秒)待機して、妨害されたトラッカが見えるようになるかどうかを見る。触覚トラッカ45ならびに解剖学的構造トラッカ43aおよび43bがすべて所定期間内に見えるようになるならば、触覚(またはバーリング)モードが再開される。そうでなければ、触覚デバイス30はフリーモードに入れられて、ツール50が患者とともに動き、必要ならば、患者から抜き取ることができるようになる。前記と同様、妨害状態が終了すると(たとえば、妨害されたトラッカが再び見えるようになると)、外科システム10は、触覚デバイス30をアプローチモードに入れてユーザが処置を再開することができるようにする。
ひとたび触覚デバイス30が触覚モードに入ると、ユーザは骨彫刻に進むことがすることができる。骨を彫刻するためには、ユーザは、触覚デバイス30の部分(たとえばツール50)を解剖学的構造の領域(たとえば骨)の中で動かすことにより、触覚デバイス30を操作する。図37でよく見てとれるように、ユーザがツール50で骨から物質を除去すると、外科システム10は、画面89上の脛骨Tのイメージを更新して骨が除去された深さを示す。骨除去プロセス中、触覚デバイス30は、たとえば、除去される骨の部分618に一致する形および体積を有する触覚対象物(たとえば図9の触覚対象物206)に基づいて、力フィードバックをユーザに付与する。内側脛骨面形体の場合、触覚対象物の境界は、たとえば、脛骨Tの彫刻面と嵌合する脛骨構成部74の表面74a(図10bに示す)に実質的に一致することができる。力フィードバックは、ツール50の先端を触覚対象物の境界内に保つようユーザを促す。たとえば、力フィードバックは、ツール50を、触覚対象物、たとえば仮想境界の少なくとも一部分に貫入しないように拘束することができる。触覚対象物は仮想であり、ツール50は物理的空間中で動くが、外科システム10は、解剖学的構造、触覚対象物および触覚デバイス30を解剖学的構造の表現と対応させる。したがって、触覚対象物およびツール50はいずれも患者の物理的解剖学的構造と位置合わせされている。その結果、仮想触覚対象物は、物理的ツール50の動きを限度内にとどめるかまたは拘束することができる。
骨彫刻プロセスでユーザを触覚的に誘導することに加えて、外科システム10はまた、視覚的フィードバックをユーザに提供することもできる。たとえば、ツール50が部分618の特定の場所で所望の切削深さに達すると、その特定の場所の色が緑から白に変化して骨をそれ以上その場所から除去すべきでないことを示すことができる。同様に、ツール50が所望の切削深さを超えて切削すると、特定の場所の色が白から赤に変化して、切削が深すぎることをユーザに警告することができる。健康な組織を損傷する可能性をさらに減らすため、外科システム10はまた、ユーザが深く切削しすぎた場合にツール50へのパワーを動作不能にするようにプログラムすることもできる。内側脛骨ポケット形体の彫刻が完了すると、ユーザは、次の形体の成形に進む用意ができたということ、またはツール50を抜き取ることを望むということを合図することができる(たとえばフットペダルまたは他の入力デバイス25を使用して)。ツール50は、彫刻プロセス中、形体が完成していない場合さえ、任意の時機に抜き取ることができる。たとえば、ユーザは、ツール先端を交換する、外科的処置部位を潅注する、トライアル整復を実施する、インプラントプラニングを再訪する、生じた問題に対処するなどのためにツール50を抜き取ることを望むかもしれない。ユーザがツール50を抜き取ることを望むと合図するならば、妨害検出アルゴリズムは休止され、触覚デバイス30がフリーモードに入れられてツール50の抜き取りが可能になる。
ステップS12は、第一のインプラント(すなわち脛骨構成部74)またはトライアルインプラント(たとえば脛骨トライアル)を第一の骨(すなわち、脛骨T上の調製された内側脛骨ポケット形体)に装着するトライアル整復プロセスである。ユーザは、脛骨構成部または脛骨トライアルの装着を評価し、改善された装着を達成するため、任意の所望の調節を加える、たとえばインプラントプラニングおよび/または骨彫刻を繰り返すことができる。
ステップS13で、ユーザは、第一の骨を調製したのち第二のインプラントを第二の骨に埋植するための骨調製をプラニングする。好ましい態様では、第二の骨は大腿骨Fであり、第二のインプラントは大腿骨構成部72であり、骨調製は、大腿骨Fの遠位端上の、大腿骨構成部72が設置される場所を選択することによってプラニングされる。大腿骨構成部72がすでにプラニングされているならば(たとえばステップS10で)、所望により、以前の配置を再訪し、調節してもよい。ステップS10におけるように、外科システム10は、画面88a(図38に示す)を作り出すことによってインプラントプラニングを容易にする。画面88aは、フレーム800、802、804、806および807が、第二のインプラント(すなわち、大腿骨構成部72)の表現(またはインプラントモデル)808bをはじめとする大腿骨構成部72の配置に該当するイメージ、データおよび選択ボタンを含むことを除き、脛骨構成部74のプラニングに使用される画面88b(図35に示す)に似ている。
大腿骨構成部72の場所は、たとえば、既存のインプラントおよび周囲構造の位置に対して決定することができる。これらの点は、上記ステップS10における軟骨点の場合と同じように、追跡されるツールを使用してマッピングすることができる。マッピングされる点は、関節中の解剖学的構造上の点(たとえば骨、神経、軟組織など)および/または関節中の既存のインプラント上の点(たとえば縁、かど部、表面、検証形体、くぼみ、溝、中心線マーキングなど)を含むことができる。既存のインプラントは、たとえば、第一のインプラント(すなわち脛骨構成部74)、トライアルインプラント(たとえば脛骨トライアル)および/または以前の外科的処置からの既存のインプラントを含むことができる。点は、脚Lを完全に伸ばした状態から完全に曲げた状態までの様々な角度で選択することができる。たとえば、点は、脚Lを完全に伸ばした状態、90°に曲げた状態および完全に曲げた状態でマッピングすることができる。一つの態様では、膝関節を第一の位置に動かし(たとえば屈曲および伸展の一方)、関節が第一の位置にあるとき、ユーザが、関節中の第一の場所に対応する第一の点を特定し、膝関節を第二の位置に動かし(たとえば屈曲および伸展の他方)、関節が第二の位置にあるとき、ユーザが、関節中の第二の場所に対応する第二の点を特定する。外科システム10は、第一および第二の点を画面88a上のフレーム800中に点810として表示する。点810は、ユーザが第二のインプラント(すなわち大腿骨構成部72)の配置を可視化することを支援する。したがって、ユーザは、第一および第二の点に少なくとも部分的に基づいて、第二のインプラントを第二の骨に埋植するための骨調製をプラニングすることができる。
一つの態様では、大腿骨構成部72のサイズおよび位置は、脚を伸ばした状態で第一の点を脛骨トライアルインプラントの前縁上で中心線にマッピングし、脚を曲げた状態で第二の点を脛骨トライアルインプラントの前縁上で中心線にマッピングすることによって決定される。伸展点は、大腿骨構成部72をサイズ決定するために使用される。たとえば、大腿骨構成部72のサイズは、膝が伸びた状態に動くとき脛骨構成部74が大腿骨構成部72の前縁から離れないように選択することができる。屈曲点と伸展点とを併用して、大腿骨構成部72が脛骨構成部74に正しく載ることを保証するための大腿骨構成部72の内/外回旋を決定する(たとえば、患者の生来の可動範囲および関節運動学に基づく)。たとえば、第二のインプラントの表現(たとえば大腿骨構成部72の膝72cの表現)の中心線を屈曲および伸展点と整合させることができる。場合によっては、後方「切削」縁上の点を使用して、大腿骨構成部72の後方配置を決定することもできる。この態様では、ユーザが、インプラントモデル808a(図38に示す)を大まかな埋植区域に動かすことにより、大腿骨構成部72のための場所を選択する。ユーザは、フレーム806中の横断ビューを使用しながら、インプラントモデル808aを、インプラントモデル808aの中心線が、伸展および屈曲状態にある脛骨トライアルインプラントの中心線を表すマッピングされた点810と整合するよう、回旋方向に調節する。フレーム807中の内/外角寸法(「外」と表記)が、得られた内/外角を表示する。ユーザは、フレーム804中の冠状ビューを使用しながら、インプラントモデル808aの内反/外反角を調節する。フレーム807中の内反/外反(「外反」と表記)寸法が、得られた内反/外反を表示する。ユーザは、フレーム802中の矢状ビューを使用しながら、インプラントモデル808aの後方回旋を調節する。フレーム807中の屈曲角寸法(「屈曲」と表記)が、得られた屈曲角を表示する。一つの態様では、後方回旋は、大腿骨構成部72の軸が骨イメージの解剖学的軸の約5°〜約8°の範囲であるように調節される。ユーザは、フレーム807中の深さバー(「深さ」と表記)を調節することにより、大腿骨F中のインプラントモデル808aの遠位深さを調節することができる。ユーザはまた、フレーム807中のサイズ選択ボックス(「サイズ」と表記)を使用して、インプラントモデル808aのサイズを変更することもできる。このようにして、第一の骨(すなわち脛骨T)上の第一のインプラントの検出された場所に少なくとも部分的に基づいて、第二のインプラントの表現(インプラントモデル808a)を第二の骨(すなわち大腿骨F)の表現と対応させる。
ステップS14で、ツール50を操作して第二の骨を彫刻することにより、第二のインプラントを受けるように第二の骨を調製する。一つの態様では、大腿骨Fは、大腿骨Fの遠位端に内側大腿骨面、柱状形体および竜骨状形体を成形することによって調製される。大腿骨構成部72が設置されると、内側大腿骨面、柱状形体および竜骨状形体がそれぞれ大腿骨構成部72の面72a、柱状部72bおよび竜骨状部72c(図10Aに示す)と嵌合する。大腿骨形体の調製は、内側脛骨面形体の調製に実質的に似ている。図39に示すように、外科システム10は、大腿骨Fのグラフィカル表現を示す画面91を表示する。脛骨調製の場合の画面89と同様、画面91は、除去される骨の部分618の表現612ならびにツール先端616aおよびツールシャフト616bを示すツール50のグラフィカル表現を含む。画面91は、場合によっては、反対側の骨(すなわち、脛骨T)の位置を表示して、ユーザが過って反対側の骨の表面を切削することを回避するよう誘導することができる。前記と同様、除去される骨の部分618は、好ましくは、周囲の骨とは異なる色に色付けされる。触覚デバイス30は、アプローチ経路の形態の触覚対象物(たとえば図1に示す触覚対象物300、図9に示す触覚対象物310)が、ツール50の先端を切開部128に誘導し、患者の対象の形体(すなわち、患者解剖学的構造上の骨のうち、画面91にグラフィカルに表現された部分618に対応する部分)に向ける際にユーザを援助するアプローチモードに入る。外科システム10は、たとえばツール50の先端が対象の形体に関連する既定の点に接近したとき、触覚デバイス30を自動的に触覚(またはバーリング)モードに入れる。触覚デバイス30が触覚モードに入ると、外科システム10はまた、妨害検出アルゴリズムを起動する。
ひとたび触覚デバイス30が触覚モードに入ると、ユーザは骨彫刻に進むことができる。図39に示すように、ユーザがツール50で骨を除去すると、外科システム10は、画面91上の大腿骨Fのイメージを更新して骨が除去された深さを示す。骨除去プロセス中、触覚デバイス30は、たとえば、除去される骨の部分618に一致する形および体積を有する触覚対象物(たとえば図9に示す触覚対象物208)に基づいて、力フィードバックをユーザに付与する。内側大腿骨面形体の場合、触覚対象物の境界は、たとえば、大腿骨Fの彫刻面と嵌合する大腿骨構成部72の表面72a(図10Aに示す)に実質的に一致することができる。力フィードバックは、ツール50の先端を触覚対象物の境界内に保つようユーザを促す。
彫刻中、ユーザは、ツール50を交換することを望むかもしれない。たとえば、一つの態様では、ユーザは、内側大腿骨面形体の大部分を形成する場合には6mmのバーを使用し、「かど部」(たとえば、形体の垂直壁が形体の水平底部に移行する領域)を彫刻する場合には2mmのバーを使用する。バーを交換するために、ユーザは、ツール50を抜き取ることを望むことを合図する。応答して、妨害検出アルゴリズムが休止し、触覚デバイス30はフリーモードに入れられてツール50の抜き取りが可能になる。ひとたびバーが交換されると、触覚デバイス30がアプローチモードに入れられて、ユーザがツール50を外科的処置部位に向けて送って内側大腿骨面の成形を仕上げることが可能になる。好ましい態様では、彫刻を再開する前に、ユーザが、ステップS8における初期位置合わせ中に骨(たとえば大腿骨Fまたは脛骨T)の上に配置されたマークにツール50(または追跡されるプローブ)でタッチする。マークは、外科システム10が正しいシステム構成を検証することを可能にするチェック点として機能する。たとえば、チェック点は、追跡システム40が正しく構成されていること(たとえばトラッカが解剖学的構造に対して正しく整合しており、障害または妨害を受けていないなど)、ツール50が正しく設置されていること(たとえば正しく装着され、シャフトが曲がっていないなど)および/または他任意の物体が正しく据付け、設置、設定などをされていることを検証するために使用することができる。チェックがシステム構成に関する問題(たとえば、ツール交換中にトラッカの一つがユーザに当たり、整合を逸した)を明らかにするならば、位置合わせ(ステップS8)を繰り返さなければならない。このチェック点検証は、ユーザがシステム構成を検証することを望むときいつでも、たとえばツール50を患者から抜き取り、次いで患者に再度挿入するときに実施することができる。内側大腿骨面形体の彫刻が完了すると、ユーザは、内側大腿骨柱状形体の成形に進む用意ができたことを合図することができる(たとえばフットペダルまたは他の入力デバイス25を使用して)。一つの態様では、内側柱状形体を成形する前に、ユーザは、内側大腿骨面形体のかど部を成形するために使用した2mmバーを4mmバーと交換する。
内側大腿骨柱状形体を彫刻するプロセスは、内側大腿骨面形体を彫刻するプロセスに実質的に似ている。大腿骨面形体の場合と同様に、外科システム10は、大腿骨Fのグラフィカル表現、除去される骨の部分618の612の表現、ツール先端616aの表現およびツールシャフト616bの表現を示すツール50の表現ならびに場合によっては反対側の骨(すなわち、脛骨T)の表現を示す画面91(図39に示す)を表示する。前記と同様、除去される骨の部分618は、好ましくは、周囲の骨とは異なる色に色付けされる。一つの態様では、外科システム10は、ツール50の先端616aの表現だけを画面91に表示する。しかし、柱状形体および竜骨状形体を成形する際のツール50のアプローチ角の重要性のため、外科システム10は、好ましくは、柱状形体および竜骨状形体が彫刻されるとき、ツール50のシャフトの許容しうる傾斜角を指示する。たとえば、シャフト616bの表現は、ユーザが、シャフト616bが解剖学的構造に対してどのような向きにあるのかを見ることができるように表示することができる。したがって、ユーザは、大腿骨形体のより深い部分を彫刻するときシャフトがすでに彫刻された骨壁(または他の物体)をこすっているかどうかを決定することがことができる。また、ツール角(たとえば傾斜角)の数値を画面91に示すこともできる。外科システム10はまた、ツール50のシャフト角を所定の値に拘束するような形の触覚対象物を含むこともできる。一つの態様では、所定の値は、ツール50のシャフトが、そのツール50が切削している骨の平面に対して実質的に垂直のままであるような値である。たとえば、所定の値は、ツール50が切削している骨の平面から約80°〜約90°の範囲であることができる。画面91はまた、シャフトを拘束する触覚対象物のグラフィカル描写を含むことができ、ツール角が所定の値を超えるならば触覚対象物の色を変化させる(たとえば赤に)こともできる。追加的または代替的に、ツール50は、回転シャフトおよび/または先端が骨と直接接触することを防ぐ、ツール50のシャフトおよび/または先端の周囲に配置されたスリーブを含むこともできる。
触覚デバイス30は、アプローチ経路の形態の触覚対象物(たとえば図1に示す触覚対象物300、図9に示す触覚対象物310)が、ツール50の先端を患者の対象の形体(すなわち、患者解剖学的構造上の骨のうち、画面91にグラフィカルに表現された部分618に対応する部分)に向けて誘導する際にユーザを援助するアプローチモードに入る。外科システム10は、たとえばツール50の先端が対象の形体に関連する既定の点に接近した際に触覚デバイス30を自動的に触覚(またはバーリング)モードに入れる。妨害検出アルゴリズムが事前に休止されていたならば(たとえば大腿骨面形体の成形ののちツール50を抜き取るため)、外科システム10は、触覚デバイス30が触覚モードに入ったとき、妨害検出アルゴリズムを起動する。
ひとたび触覚デバイス30が触覚モードに入ると、ユーザは骨彫刻に進むことができる。ユーザがツール50で骨を除去するにつれ、外科システム10は、画面91上の大腿骨Fのイメージを更新して、骨が除去された深さを示す。骨除去プロセス中、触覚デバイス30は、たとえば、除去される骨の部分618に一致する形および体積を有する触覚対象物に基づいて、力フィードバックをユーザに付与する。内側大腿骨柱状形体の場合、触覚対象物の境界は、たとえば、大腿骨Fの彫刻面と嵌合する大腿骨構成部72の柱状部72b(図10Aに示す)の表面に実質的に対応することができる。内側大腿骨柱状形体が完了すると、ユーザは、内側大腿骨竜骨状形体の成形に進む用意ができたということを合図することができる(たとえばフットペダルまたは他の入力デバイス25を使用して)。一つの態様では、竜骨状形体を成形する前に、ユーザは、4mmバーをストレートバーと交換する。内側大腿骨面形体のかど部に関連して先に論じたように、バーを交換するために、ユーザは、ツール50を抜き取らなければならないことを合図する。応答して、妨害検出アルゴリズムが休止し、触覚デバイス30はフリーモードに入れられてツール50の抜き取りが可能になる。ひとたびバーが交換されると、ユーザは、内側大腿骨竜骨状形体の成形に進むことができる。好ましくは、ユーザは、骨彫刻を再開する前に上記のチェック点検証を実施する。
内側大腿骨竜骨状形体を彫刻するプロセスは、内側大腿骨面および柱状形体を彫刻するプロセスに実質的に似ている。大腿骨面および柱状形体の場合と同様に、外科システム10は、大腿骨Fのグラフィカル表現、除去される骨の部分618の表現612、ツール先端616aおよびツールシャフト616bを示すツール50のグラフィカル表現ならびに場合によっては反対側の骨(すなわち、脛骨T)の表現を示す画面91(図39に示す)を表示する。前記と同様、除去される骨の部分618は、好ましくは、周囲の骨とは異なる色に色付けされる。さらには、内側大腿骨柱状形体に関連して先に論じたように、画面91は、ツール50の回転シャフトで周囲の骨を損傷することを回避するためにユーザがツール角をモニタすることを可能にする機構を含むことができる。
触覚デバイス30は、アプローチ経路の形態の触覚対象物(たとえば図1の触覚対象物300、図9に示す触覚対象物310)が、ツール50の先端を切開部128に誘導し、患者の対象の形体(すなわち、患者解剖学的構造上の骨のうち、画面91にグラフィカルに表現された部分618に対応する部分)に向かわせる際にユーザを援助するアプローチモードに入る。外科システム10は、たとえばツール50の先端が対象の形体に関連する既定の点に接近した際に触覚デバイス30を自動的に触覚(またはバーリング)モードに入れる。触覚デバイス30が触覚モードに入ると、外科システム10はまた、妨害検出アルゴリズムを起動する。ひとたび触覚デバイス30が触覚モードに入ると、ユーザは骨彫刻に進むことができる。ユーザがツール50で骨を除去するにつれ、外科システム10は、画面91上の大腿骨Fのイメージを更新して、骨が除去された深さを示す。骨除去プロセス中、触覚デバイス30は、たとえば、除去される骨の部分618に一致する形および体積を有する触覚対象物に基づいて、力フィードバックをユーザに付与する。内側大腿骨竜骨状形体の場合、触覚対象物の境界は、たとえば、大腿骨Fの彫刻面と嵌合する大腿骨構成部72の竜骨状部72c(図10Aに示す)の表面に実質的に対応することができる。内側大腿骨竜骨状形体が完了すると、ユーザは、ツール50を患者から抜き取る用意ができたということを合図することができる(たとえばフットペダルまたは他の入力デバイス25を使用して)。応答して、外科システム10は、妨害検出アルゴリズムを休止させ、触覚デバイス30をフリーモードに入れてツール50の抜き取りを可能にする。
ステップS15は、第二のインプラント(すなわち大腿骨構成部72)またはトライアルインプラント(たとえば大腿骨トライアル)を、大腿骨Fの調製された内側大腿骨面、柱状形体および竜骨状形体に装着するトライアル整復プロセスである。ユーザは、大腿骨構成部72または大腿骨トライアルの装着を評価し、改善された装着を達成するため、任意の所望の調節を加える、たとえばインプラントプラニングおよび/または骨彫刻を繰り返すことができる。ステップS15で、脛骨Tに対して調節を加えることもできる。トライアル整復を容易にするため、外科システム10は、大腿骨Fおよび脛骨Tの追跡される動きをグラフィカルに表現し、計測値、たとえば屈曲、内反/外反および内/外回旋角を表示する画面(図示せず)を生成することができる。さらには、大腿骨および/または脛骨トライアルインプラントは、トライアルインプラントが骨に装着されたのち、外科システム10がトライアルインプラントの配置を検証することを可能にするために、追跡されるプローブでタッチすることができる固有の特徴(たとえばくぼみ、マーキングなど)を含むこともできる。固有の特徴はまた、一つのインプラントの位置を別のインプラントの位置に合わせるために使用することもできる(たとえばモジュラーインプラントの場合)。ユーザは、トライアルインプラントの装着に満足すると、大腿骨構成部72および脛骨構成部74の設置ならびに外科的処置の完了に進むことができる。
このように、本発明の態様は、最小侵襲手術において直接可視化に取って代わることができ、整形外科的関節置換用途で健康な骨を温存し、術中適合性およびプラニングを可能にし、外科的熟練レベルにかかわらず十分に予測可能、繰返し可能および/または正確である手術結果を出すことができる触覚誘導システムおよび方法を提供する。
本明細書に開示した発明の詳細な説明および実施を考慮すると、本発明の他の態様が当業者には自明であろう。詳細な説明および実施例は単に例を示すものとみなされることを意図したものである。
Claims (217)
- ユーザによって操作されて患者に対して処置を実施するように構成された外科デバイスと、
患者の解剖学的構造と、該外科デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて該外科デバイスを制御して、ユーザに対する触覚誘導および該外科デバイスのユーザ操作に対する制限の少なくとも一方を提供するための制御パラメータを具現化し、
処置中の該解剖学的構造の動きに応答して該制御パラメータを調節するようにプログラムされたコンピュータシステムとを含む、
外科装置。 - 外科デバイスが、アーム、該アームに結合された外科ツールならびに該アームおよび該外科ツールの少なくとも一方と対応するインタフェースを含む、請求項1記載の外科装置。
- インタフェースが、ユーザがアームの構造を変化させることを可能にするように構成された第一の部分およびユーザが外科ツールを該アームに対して動かすことを可能にするように構成された第二の部分を含む、請求項2記載の外科装置。
- 第一の部分がアームのジョイントを含み、第二の部分が該アームの遠位端および外科ツールの少なくとも一方を含む、請求項3記載の外科装置。
- コンピュータシステムが、解剖学的構造と対応する仮想対象物、該解剖学的構造に関するパラメータおよび該解剖学的構造の少なくとも一つに対する外科ツールの位置に基づいて外科器具を制御して、力、トルクおよび振動の少なくとも一つを発生させるようにプログラムされている、請求項2記載の外科装置。
- 外科デバイスがフィードバック機構を含み、コンピュータシステムが、ユーザが該外科デバイスを操作する間に、解剖学的構造と対応する仮想対象物、該解剖学的構造に関するパラメータおよび該解剖学的構造の少なくとも一つに対する該外科デバイスの部分の場所に関する情報をユーザに送るように該フィードバック機構を制御するように構成されている、請求項1記載の外科装置。
- フィードバック機構が、力、トルクおよび振動の少なくとも一つを生じさせるための少なくとも一つのモータを含む、請求項6記載の外科装置。
- 外科デバイスが、該外科デバイスを操作するユーザにフィードバックを供給するように構成された少なくとも一つのフィードバック機構を含み、コンピュータシステムが、ユーザが該外科デバイスを操作する間に、患者の解剖学的構造と、該外科デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて該少なくとも一つのフィードバック機構を制御して触覚誘導をユーザに提供するようにプログラムされている、請求項1記載の外科装置。
- 少なくとも一つのフィードバック機構が、外科デバイスのユーザの操作に対抗する力フィードバックを供給するように構成されたモータを含む、請求項8記載の外科装置。
- コンピュータシステムが、ユーザが力フィードバックに打ち勝ち、外科デバイスを所望の場所に動かすことを可能にするようにプログラムされている、請求項9記載の外科装置。
- 少なくとも一つのフィードバック機構が、振動を生じさせるためのオシレータを含む、請求項8記載の外科装置。
- コンピュータシステムが、インピーダンス制御を使用して外科デバイスを制御するようにプログラムされている、請求項1記載の外科装置。
- コンピュータシステムが、解剖学的構造と対応する仮想対象物に少なくとも部分的に基づいて制御パラメータを決定するようにプログラムされている、請求項1記載の外科装置。
- コンピュータシステムが、解剖学的構造の検出された動きをモニタし、次いで該検出された動きに応答して仮想対象物を調節することにより、処置中の該解剖学的構造の動きに応答して該解剖学的構造と対応する仮想対象物を調節するようにプログラムされている、請求項1記載の外科装置。
- 対象物のポーズを決定するための検出デバイスをさらに含む、請求項1記載の外科装置。
- 検出デバイスが外科デバイスに据え付けられている、請求項15記載の外科装置。
- 検出デバイスが外科デバイスに対して第一の位置から第二の位置まで移動可能である、請求項16記載の外科装置。
- 検出デバイスが外科デバイスに対して所定位置に固定されている、請求項16記載の外科装置。
- 検出デバイスによって検出可能であり、追跡される対象物に取り付けられるように構成された少なくとも一つの追跡可能要素をさらに含む、請求項15記載の外科装置。
- 少なくとも一つの追跡可能要素が、特有の幾何学的配置を有しかつ該少なくとも一つの追跡可能要素が対象物に取り付けられている場合に該対象物に対して既知の幾何学的関係を有するマーカのアレイを含む、請求項19記載の外科装置。
- コンピュータシステムが、処置中に検出デバイスが少なくとも一つの追跡可能要素を検出することができない場合にユーザに警告するようにプログラムされている、請求項19記載の外科装置。
- 少なくとも一つの追跡可能要素が、解剖学的構造への取付けのための固定デバイスを含む、請求項19記載の外科装置。
- 固定デバイスが少なくとも一つの骨ピンを含む、請求項22記載の外科装置。
- 少なくとも一つの追跡可能要素が外科デバイスに配置されている、請求項19記載の外科装置。
- 少なくとも一つの追跡可能要素が外科デバイスに対して第一の位置と第二の位置との間で移動可能である、請求項24記載の外科装置。
- 少なくとも一つの追跡可能要素が外科デバイスに対して所定位置に固定されている、請求項24記載の外科装置。
- 外科デバイスが外科ツールと係合するように構成されたアームを含み、少なくとも一つの追跡可能要素が該アームの遠位端および該外科ツールの少なくとも一方に配置されるように構成されている、請求項19記載の外科装置。
- 少なくとも一つの追跡可能要素がプローブに結合されている、請求項19記載の外科装置。
- 少なくとも一つの追跡可能要素が、プローブの較正を検証するための形体を含む、請求項19記載の外科装置。
- 形体がくぼみを含む、請求項29記載の外科装置。
- 検出デバイスが、追跡される対象物に接続されるように構成されている、請求項15記載の外科装置。
- 検出デバイスが、患者の骨への取付けのための固定デバイスを含む、請求項31記載の外科装置。
- ユーザによって操作されて患者に対して処置を実施するように構成された触覚デバイスであって、該触覚デバイスを操作するユーザにフィードバックを供給するように構成された少なくとも一つのフィードバック機構を含む触覚デバイスと、
ユーザが該触覚デバイスを操作する間に、患者の解剖学的構造と、該触覚デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて該少なくとも一つのフィードバック機構を制御して、ユーザに触覚誘導を提供するための制御パラメータを具現化するようにプログラムされたコンピュータシステムとを含む、
外科装置。 - コンピュータシステムが、処置中の解剖学的構造の動きに応答して制御パラメータを調節するようにプログラムされている、請求項33記載の外科装置。
- 触覚デバイスが、アーム、該アームに結合された外科ツールならびに該アームおよび該外科ツールの少なくとも一方と対応するインタフェースを含む、請求項33記載の外科装置。
- インタフェースが、ユーザがアームの構造を変化させることを可能にするように構成された第一の部分およびユーザが外科ツールを該アームに対して動かすことを可能にするように構成された第二の部分を含む、請求項34記載の外科装置。
- 第一の部分がアームのジョイントを含み、第二の部分が該アームの遠位端および外科ツールの少なくとも一方を含む、請求項36記載の外科装置。
- コンピュータシステムが、解剖学的構造と対応する仮想対象物、該解剖学的構造に関するパラメータおよび該解剖学的構造の少なくとも一つに対する外科ツールの位置に基づいて触覚デバイスを制御して、力、トルクおよび振動の少なくとも一つを発生させるようにプログラムされている、請求項34記載の外科装置。
- コンピュータシステムが、ユーザが触覚デバイスを操作する間に、解剖学的構造と対応する仮想対象物、該解剖学的構造に関するパラメータおよび該解剖学的構造の少なくとも一つに対する該触覚デバイスの部分の場所に関する情報を該ユーザに送るようにフィードバック機構を制御するように構成されている、請求項33記載の外科装置。
- フィードバック機構が、力、トルクおよび振動の少なくとも一つを生じさせるための少なくとも一つのモータを含む、請求項33記載の外科装置。
- 少なくとも一つのフィードバック機構が、触覚デバイスのユーザの操作に対抗する力フィードバックを供給するように構成されたモータを含む、請求項33記載の外科装置。
- コンピュータシステムが、ユーザが力フィードバックに打ち勝ち、触覚デバイスを所望の場所に動かすことを可能にするようにプログラムされている、請求項41記載の外科装置。
- コンピュータシステムが、インピーダンス制御を使用して触覚デバイスを制御するようにプログラムされている、請求項33記載の外科装置。
- コンピュータシステムが、解剖学的構造と対応する仮想対象物に少なくとも部分的に基づいて制御パラメータを決定するようにプログラムされている、請求項33記載の外科装置。
- コンピュータシステムが、解剖学的構造の検出された動きをモニタし、次いで該検出された動きに応答して仮想対象物を調節することにより、処置中の該解剖学的構造の動きに応答して該解剖学的構造と対応する仮想対象物を調節するようにプログラムされている、請求項33記載の外科装置。
- 対象物のポーズを決定するための検出デバイスをさらに含む、請求項33記載の外科装置。
- 検出デバイスが触覚デバイスに据え付けられている、請求項46記載の外科装置。
- 検出デバイスが触覚デバイスに対して第一の位置から第二の位置まで移動可能である、請求項47記載の外科装置。
- 検出デバイスが触覚デバイスに対して所定位置に固定されている、請求項47記載の外科装置。
- 検出デバイスによって検出可能であり、追跡される対象物に取り付けられるように構成された少なくとも一つの追跡可能要素をさらに含む、請求項46記載の外科装置。
- 少なくとも一つの追跡可能要素が、特有の幾何学的配置を有し、該少なくとも一つの追跡可能要素が対象物に取り付けられている場合に該対象物に対して既知の幾何学的関係を有するマーカのアレイを含む、請求項50記載の外科装置。
- コンピュータシステムが、処置中に検出デバイスが少なくとも一つの追跡可能要素を検出することができない場合にユーザに警告するようにプログラムされている、請求項50記載の外科装置。
- 少なくとも一つの追跡可能要素が、解剖学的構造への取付けのための固定デバイスを含む、請求項50記載の外科装置。
- 固定デバイスが少なくとも一つの骨ピンを含む、請求項53記載の外科装置。
- 少なくとも一つの追跡可能要素が触覚デバイスに配置されている、請求項50記載の外科装置。
- 少なくとも一つの追跡可能要素が触覚デバイスに対して第一の位置と第二の位置との間で移動可能である、請求項55記載の外科装置。
- 少なくとも一つの追跡可能要素が触覚デバイスに対して所定位置に固定されている、請求項55記載の外科装置。
- 触覚デバイスが外科ツールと係合するように構成されたアームを含み、少なくとも一つの追跡可能要素が該アームの遠位端および該外科ツールの少なくとも一方に配置されるように構成されている、請求項50記載の外科装置。
- 少なくとも一つの追跡可能要素がプローブに結合されている、請求項50記載の外科装置。
- 少なくとも一つの追跡可能要素が、プローブの較正を検証するための形体を含む、請求項50記載の外科装置。
- 形体がくぼみを含む、請求項60記載の外科装置。
- 検出デバイスが、追跡される対象物に接続されるように構成されている、請求項46記載の外科装置。
- 検出デバイスが、患者の骨への取付けのための固定デバイスを含む、請求項62記載の外科装置。
- 患者の解剖学的構造の表現を生成するステップ、
該解剖学的構造および外科デバイスを該解剖学的構造の表現と対応させるステップ、
該外科デバイスを操作して、該外科デバイスの部分を該解剖学的構造の領域中で動かすことにより、患者に対して処置を実施するステップ、
該解剖学的構造の該表現と、該外科デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて該外科デバイスを制御して、触覚誘導および該外科デバイスの操作に対する制限の少なくとも一方を提供するステップ、および
該処置中の該解剖学的構造の動きに応答して該解剖学的構造の表現を調節するステップを含む、
外科的方法。 - 解剖学的構造の表現に関するパラメータを規定するステップをさらに含む、請求項64記載の方法。
- パラメータが距離を含む、請求項65記載の方法。
- パラメータならびに外科デバイスの部分の位置、向き、速度および加速度の少なくとも一つに基づいて該外科デバイスを制御して、触覚誘導および該外科デバイスの操作に対する制限の少なくとも一方を提供するステップをさらに含む、請求項65記載の方法。
- 仮想対象物を解剖学的構造の表現と対応させるステップをさらに含む、請求項64記載の方法。
- 仮想対象物ならびに外科デバイスの部分の位置、向き、速度および加速度の少なくとも一つに基づいて該外科デバイスを制御して、触覚誘導および該外科デバイスの操作に対する制限の少なくとも一方を提供するステップをさらに含む、請求項68記載の方法。
- 解剖学的構造の位置をモニタして該解剖学的構造の動きを検出するステップ、および
検出された動きに応答して仮想対象物を調節するステップをさらに含む、
請求項68記載の方法。 - 外科デバイスを制御するステップが、仮想対象物の少なくとも一部分に貫入しないように該外科デバイスの部分を拘束することを含む、請求項68記載の方法。
- 仮想対象物の少なくとも一部分が、解剖学的構造から除去される物質の部分を表す、請求項68記載の方法。
- 仮想対象物の少なくとも一部分の形が、解剖学的構造に装着されるインプラントの表面の形に実質的に一致する、請求項68記載の方法。
- 仮想対象物の表現を解剖学的構造の表現に重ね合わせるステップをさらに含む、請求項68記載の方法。
- 仮想対象物が第一の位置から第二の位置までの経路を表す、請求項68記載の方法。
- 第二の位置が解剖学的構造の標的領域を含む、請求項75記載の方法。
- 外科デバイスの部分が動きが経路沿いに拘束されるように仮想対象物をアクティブ化するステップ、および
該外科デバイスの該部分が第二の位置に達した際に該仮想対象物を非アクティブ化するステップをさらに含む、
請求項75記載の方法。 - 仮想対象物を非アクティブ化して外科デバイスの部分が経路から逸脱することを可能にするステップをさらに含む、請求項77記載の方法。
- 外科デバイスが、アーム、該アームに結合された外科ツールならびに該アームおよび該外科ツールの少なくとも一方と対応するインタフェースを含む、請求項64記載の方法。
- インタフェースが、ユーザがアームの構造を変化させることを可能にするように構成された第一の部分およびユーザが外科ツールを該アームに対して動かすことを可能にするように構成された第二の部分を含む、請求項79記載の方法。
- インタフェースを操作してアームの構造を変化させると同時に外科ツールを該アームに対して動かすステップをさらに含む、請求項79記載の方法。
- 外科デバイスを制御するステップが、フィードバック機構を制御して、力、トルクおよび振動の少なくとも一つを発生させることを含む、請求項64記載の方法。
- 外科デバイスを制御するステップが、該外科デバイスのユーザの操作に対抗する力フィードバックを発生させることを含む、請求項64記載の方法。
- 力フィードバックが、解剖学的構造の表現と対応する仮想境界への外科デバイスの部分の近接に基づいて決定される、請求項83記載の方法。
- 外科デバイスの部分が解剖学的構造の表現と対応する仮想境界に接近するにつれ、力フィードバックの大きさが増す、請求項83記載の方法。
- 触覚誘導が、解剖学的構造の表現と対応する仮想境界、該解剖学的構造の表現に関するパラメータおよび該解剖学的構造の少なくとも一つに対する外科デバイスの部分の位置に関する情報を、該外科デバイスを操作するユーザに送る、請求項64記載の方法。
- 外科デバイスを制御するための力フィードバック曲線を所望の値だけオフセットするステップをさらに含む、請求項64記載の方法。
- 所望の値を記憶するステップ、および
該所望の値をユーザと対応させるステップをさらに含む、
請求項87記載の方法。 - 力フィードバック曲線をオフセットするステップが、触覚対象物のサイズを増減させることを含む、請求項87記載の方法。
- 力フィードバック曲線をオフセットするステップが、外科デバイスに結合された外科ツールの表現のサイズを増減させることを含む、請求項87記載の方法。
- 外科デバイスの位置をモニタするステップをさらに含む、請求項64記載の方法。
- 外科デバイスに結合された外科ツールの表現を生成するステップをさらに含む、請求項64記載の方法。
- ユーザが外科デバイスを操作して患者に対して処置を実施するにつれ、外科ツールの表現を更新するステップをさらに含む、請求項92記載の方法。
- 外科ツールの表現が、該外科ツールの先端および該外科ツールのシャフトの少なくとも一方の表現を含む、請求項92記載の方法。
- 外科ツールのシャフトの許容しうる傾斜角を指示するステップをさらに含む、請求項92記載の方法。
- 解剖学的構造から除去される物質の少なくとも一部分の表現を生成するステップ、
外科デバイスを操作して該解剖学的構造から物質を除去するステップ、および
該外科デバイスによって除去された該物質の表現を生成するステップをさらに含む、
請求項64記載の方法。 - 除去される物質の部分の表現を第一の色で生成するステップ、
所望の量の物質が除去されたとき、外科デバイスによって除去された該物質の表現を第二の色で生成するステップ、および
該外科デバイスによって除去された該物質が物質の所望の量を超えたとき、該外科デバイスによって除去された該物質の表現を第三の色で生成するステップをさらに含む、
請求項96記載の方法。 - 外科デバイスを操作するユーザを処置を通して誘導するように構成された少なくとも一つの表示を作り出すステップをさらに含む、請求項64記載の方法。
- 少なくとも一つの表示が、タスクを実施するようにユーザを促す、請求項98記載の方法。
- 患者の解剖学的構造の表現を生成するステップ、
該解剖学的構造および触覚デバイスを該解剖学的構造の該表現と対応させるステップ、
操作中にフィードバックを供給するように構成された少なくとも一つのフィードバック機構を含む該触覚デバイスを操作して、該触覚デバイスの部分を該解剖学的構造の領域中で動かすことにより、患者に対して処置を実施するステップ、および
該触覚デバイスの操作中、該患者の該解剖学的構造の該表現と、該触覚デバイスの部分の位置、向き、速度および加速度の少なくとも一つとの間の関係に基づいて該少なくとも一つのフィードバック機構を制御して触覚誘導を提供するステップを含む、
外科的方法。 - 処置中の解剖学的構造の動きに応答して患者の該解剖学的構造の表現を調節するステップをさらに含む、請求項100記載の方法。
- 解剖学的構造の表現に関するパラメータを規定するステップをさらに含む、請求項100記載の方法。
- パラメータが距離を含む、請求項102記載の方法。
- パラメータならびに触覚デバイスの部分の位置、向き、速度および加速度の少なくとも一つに基づいて該触覚デバイスを制御して触覚誘導の少なくとも一つを提供するステップをさらに含む、請求項102記載の方法。
- 仮想対象物を解剖学的構造の表現と対応させるステップをさらに含む、請求項100記載の方法。
- 仮想対象物ならびに触覚デバイスの部分の位置、向き、速度および加速度の少なくとも一つに基づいて該触覚デバイスを制御して触覚誘導を提供するステップをさらに含む、請求項105記載の方法。
- 解剖学的構造の位置をモニタして該解剖学的構造の動きを検出するステップ、および
検出された動きに応答して仮想対象物を調節するステップをさらに含む、
請求項105記載の方法。 - 触覚デバイスを制御するステップが、仮想対象物の少なくとも一部分に貫入しないように該触覚デバイスの部分を拘束することを含む、請求項105記載の方法。
- 仮想対象物の少なくとも一部分が、解剖学的構造から除去される物質の部分を表す、請求項105記載の方法。
- 仮想対象物の少なくとも一部分の形が、解剖学的構造に装着されるインプラントの表面の形に実質的に一致する、請求項105記載の方法。
- 仮想対象物の表現を解剖学的構造の表現に重ね合わせるステップをさらに含む、請求項105記載の方法。
- 仮想対象物が第一の位置から第二の位置までの経路を表す、請求項105記載の方法。
- 第二の位置が解剖学的構造の標的領域を含む、請求項112記載の方法。
- 触覚デバイスの部分の動きが経路沿いに拘束されるように仮想対象物をアクティブ化するステップ、および
該触覚デバイスの該部分が第二の位置に達した際に該仮想対象物を非アクティブ化するステップをさらに含む、
請求項112記載の方法。 - 仮想対象物を非アクティブ化して触覚デバイスの部分が経路から逸脱することを可能にするステップをさらに含む、請求項114記載の方法。
- 触覚デバイスが、アーム、該アームに結合された外科ツールならびに該アームおよび該外科ツールの少なくとも一方と対応するインタフェースを含む、請求項100記載の方法。
- 触覚デバイスが、ユーザがアームの構造を変化させることを可能にするように構成された第一の部分およびユーザが外科ツールを該アームに対して動かすことを可能にするように構成された第二の部分を含む、請求項116記載の方法。
- インタフェースを操作してアームの構造を変化させると同時に外科ツールを該アームに対して動かすステップをさらに含む、請求項116記載の方法。
- フィードバック機構によって供給されるフィードバックが、力、トルクおよび振動の少なくとも一つを含む、請求項100記載の方法。
- フィードバック機構によって供給されるフィードバックが触覚デバイスのユーザの操作に対抗する、請求項100記載の方法。
- フィードバックが、解剖学的構造の表現と対応する仮想境界への触覚デバイスの部分の近接に基づいて決定される、請求項120記載の方法。
- 触覚デバイスの部分が解剖学的構造の表現と対応する仮想境界に接近するにつれ、フィードバックの大きさが増す、請求項120記載の方法。
- 触覚誘導が、解剖学的構造の表現と対応する仮想境界、該解剖学的構造の該表示に関するパラメータおよび該解剖学的構造の少なくとも一つに対する外科デバイスの部分の位置に関する情報を、該外科デバイスを操作するユーザに送る、請求項100記載の方法。
- 触覚デバイスを制御するための力フィードバック曲線を所望の値だけオフセットするステップをさらに含む、請求項100記載の方法。
- 所望の値を記憶するステップ、および
該所望の値をユーザと対応させるステップをさらに含む、
請求項124記載の方法。 - 力フィードバック曲線をオフセットするステップが、触覚対象物のサイズを増減させることを含む、請求項124記載の方法。
- 力フィードバック曲線をオフセットするステップが、触覚デバイスに結合された外科ツールの表現のサイズを増減させることを含む、請求項124記載の方法。
- 触覚デバイスの位置をモニタするステップをさらに含む、請求項100記載の方法。
- 触覚デバイスに結合された外科ツールの表現を生成するステップをさらに含む、請求項100記載の方法。
- ユーザが触覚デバイスを操作して患者に対して処置を実施するにつれ、外科ツールの表現を更新するステップをさらに含む、請求項129記載の方法。
- 外科ツールの表現が、該外科ツールの先端および該外科ツールのシャフトの少なくとも一方の表現を含む、請求項129記載の方法。
- 外科ツールのシャフトの許容しうる傾斜角を指示するステップをさらに含む、請求項129記載の方法。
- 解剖学的構造から除去される物質の少なくとも一部分の表現を生成するステップ、
触覚デバイスを操作して該解剖学的構造から物質を除去するステップ、および
外科デバイスによって除去された該物質の表現を生成するステップをさらに含む、
請求項100記載の方法。 - 除去される物質の部分の表現を第一の色で生成するステップ、
所望の量の物質が除去されたとき、触覚デバイスによって除去された該物質の表現を第二の色で生成するステップ、および
該触覚デバイスによって除去された該物質が物質の該所望の量を超えたとき、該触覚デバイスによって除去された該物質の表現を第三の色で生成するステップをさらに含む、
請求項133記載の方法。 - 触覚デバイスを操作するユーザを処置を通して誘導するように構成された少なくとも一つの表示を作り出すステップをさらに含む、請求項100記載の方法。
- 少なくとも一つの表示が、タスクを実施するようにユーザを促す、請求項135記載の方法。
- 第一の骨の表現を生成するステップ、
第二の骨の表現を生成するステップ、
該第一の骨に第一のインプラントを埋植するための骨調製をプラニングするステップ、
外科ツールを操作して該第一の骨を彫刻することにより、該第一のインプラントを受けるように該第一の骨を調製するステップ、
該第一の骨を調製したのち該第二の骨に第二のインプラントを埋植するための骨調製をプラニングするステップ、および
該外科ツールを操作して該第二の骨を彫刻することにより、該第二のインプラントを受けるように該第二の骨を調製するステップを含む、
関節置換法。 - 第一の骨の表現上にランドマークを指定するステップ、および
第二の骨の表現上にランドマークを指定するステップをさらに含む、
請求項137記載の方法。 - 第一の骨の表現上のランドマークが、内果、外果、回旋ランドマーク、膝中心、股関節中心、内側上顆および外側上顆の少なくとも一つを含む、請求項138記載の方法。
- 第二の骨の表現上のランドマークが、内果、外果、回旋ランドマーク、膝中心、股関節中心、内側上顆および外側上顆の少なくとも一つを含む、請求項138記載の方法。
- 第一のインプラントを埋植するための骨調製をプラニングするステップが、該第一のインプラントの表現を第一の骨の表現に重ね合わせることを含む、請求項137記載の方法。
- 第二のインプラントを埋植するための骨調製をプラニングするステップが、該第二のインプラントの表現を第二の骨の表現に重ね合わせることを含む、請求項137記載の方法。
- 第一のインプラントを埋植するための骨調製をプラニングするステップが、該第一のインプラントの表現を第一の骨の表現と対応させることを含む、請求項137記載の方法。
- 第二のインプラントを埋植するための骨調製をプラニングするステップが、該第二のインプラントの表現を第二の骨の表現と対応させることを含む、請求項137記載の方法。
- 第一のインプラントを埋植するための骨調製をプラニングするステップが、該第一のインプラントの表現の深さ、回旋、内/外位置、前方/後方位置、内/外角、内反/外反角、屈曲角およびサイズの少なくとも一つを調節することを含む、請求項137記載の方法。
- 第二のインプラントを埋植するための骨調製をプラニングするステップが、該第二のインプラントの表現の深さ、回旋、内/外位置、前方/後方位置、内/外角、内反/外反角、屈曲角およびサイズの少なくとも一つを調節することを含む、請求項137記載の方法。
- 第一のインプラントの表現の深さ、内/外角、内反/外反角、屈曲角およびサイズの少なくとも一つを表示デバイス上に表示するステップをさらに含む、請求項137記載の方法。
- 第二のインプラントの表現の深さ、内/外角、内反/外反角、屈曲角およびサイズの少なくとも一つを表示デバイス上に表示するステップをさらに含む、請求項137記載の方法。
- 第一のインプラントを埋植するための骨調製をプラニングするステップが、第一の骨の領域中の軟骨の検出場所に少なくとも部分的に基づいて該第一のインプラントの表現を該第一の骨の表現と対応させることを含む、請求項137記載の方法。
- 第一の骨の動きに応答して該第一の骨の表現を調節するステップをさらに含む、請求項137記載の方法。
- 第二の骨の動きに応答して該第二の骨の表現を調節するステップをさらに含む、請求項137記載の方法。
- 第一のインプラントを埋植するための骨調製をプラニングするステップが、第一の骨の上の軟骨面の高さを検出することを含む、請求項137記載の方法。
- 第一のインプラントを埋植するための骨調製をプラニングするステップが、該第一のインプラントの表現の少なくとも一部分を軟骨面の高さの表現と整合させることを含む、請求項152記載の方法。
- 第一のインプラントを第一の骨に装着するステップをさらに含む、請求項137記載の方法。
- 第二のインプラントを埋植するための骨調製をプラニングするステップが、第一の骨の上の第一のインプラントの検出場所に少なくとも部分的に基づいて該第二のインプラントの表現を第二の骨の表現と対応させることを含む、請求項154記載の方法。
- 関節を第一の位置に動かすステップ、
該関節が該第一の位置にあるとき、該関節の第一の場所に対応する第一の点を特定するステップ、
該関節を第二の位置に動かすステップ、
該関節が該第二の位置にあるとき、該関節の第二の場所に対応する第二の点を特定するステップ、および
該第一および第二の点に少なくとも部分的に基づいて第二のインプラントを第二の骨に埋植するための骨調製をプラニングするステップをさらに含む、
請求項154記載の方法。 - 関節を第一の位置に動かすステップが、該関節を屈曲状態および伸展状態の一方に動かすことを含む、請求項156記載の方法。
- 関節を第二の位置に動かすステップが、該関節を屈曲状態および伸展状態の一方に動かすことを含む、請求項156記載の方法。
- 第一の場所および第二の場所の少なくとも一方が、第一の骨に装着された第一のインプラント上の場所を含む、請求項156記載の方法。
- 第一の場所および第二の場所の少なくとも一方が、関節中に配置された既存のインプラント上の場所を含む、請求項156記載の方法。
- 第二のインプラントを埋植するための骨調製をプラニングするステップが、第二のインプラントの表現の中心線を第一および第二の点と整合させることを含む、請求項156記載の方法。
- 第一の骨を調製するステップが、第一の骨の表現と対応する仮想境界に貫入することおよび該第一の骨の表現に関して規定されたパラメータを超えることの少なくとも一方に逆らって外科ツールを拘束することを含む、請求項137記載の方法。
- 第二の骨を調製するステップが、第二の骨の表現と対応する仮想境界に貫入することおよび該第二の骨の表現に関して規定されたパラメータを超えることの少なくとも一方に逆らって外科ツールを拘束することを含む、請求項137記載の方法。
- 第一の骨を外科ツールで彫刻するステップ、および
仮想境界に貫入しないように該外科ツールの先端が拘束されるように該外科ツールを拘束するステップをさらに含む、
請求項137記載の方法。 - 仮想境界の少なくとも一部分が第一のインプラントの表現を含む、請求項164記載の方法。
- 仮想境界の少なくとも一部分の形が第一のインプラントの表面の形に一致する、請求項164記載の方法。
- 第一の骨の動きに応答して仮想境界を調節するステップをさらに含む、請求項164記載の方法。
- 第二の骨を外科ツールで彫刻するステップ、および
仮想境界に貫入しないように該外科ツールの先端が拘束されるように該外科ツールを拘束するステップをさらに含む、
請求項137記載の方法。 - 仮想境界の少なくとも一部分が第二のインプラントの表現を含む、請求項168記載の方法。
- 仮想境界の少なくとも一部分の形が第二のインプラントの表面の形に一致する、請求項168記載の方法。
- 第二の骨の動きに応答して仮想境界を調節するステップをさらに含む、請求項168記載の方法。
- 第一の骨を調製するステップが、
第一の骨から除去される物質の部分の表現を該第一の骨の表現に重ね合わせるステップ、および
該第一の骨から除去される物質の該部分の該表現を、外科ツールによって実際に除去された物質の部分の表現で更新するステップを含む、
請求項137記載の方法。 - 除去される物質の部分が、第一の骨の表現と対応する仮想対象物の少なくとも一部分に一致する、請求項172記載の方法。
- 第二の骨を調製するステップが、
第二の骨から除去される物質の部分の表現を該第二の骨の表現に重ね合わせるステップ、および
該第二の骨から除去される物質の該部分の該表現を、外科ツールによって実際に除去された物質の部分の表現で更新するステップを含む、
請求項137記載の方法。 - 除去される物質の部分が、第二の骨の表現と対応する仮想対象物の少なくとも一部分に一致する、請求項174記載の方法。
- 外科ツールの表現を生成するステップ、および
該外科ツールならびに第一の骨および第二の骨の少なくとも一方が動くにつれ、該外科ツールの表現、ならびに該第一の骨の表現および該第二の骨の表現の少なくとも一方を更新するステップをさらに含む、
請求項137記載の方法。 - 第一の骨および第二の骨の少なくとも一方を支持デバイスに入れるステップ、および
支持デバイスを作動させて該第一の骨および該第二の骨の少なくとも一方を第一の位置から第二の位置に動かすステップをさらに含む、
請求項137記載の方法。 - 支持デバイスを作動させるステップが、
第一の骨および第二の骨の少なくとも一方の実際のポーズを決定するステップ、
該第一の骨および該第二の骨の少なくとも一方の所望のポーズを決定するステップ、および
該支持デバイスを作動させて該第一の骨および該第二の骨の少なくとも一方を該実際のポーズから該所望のポーズに動かすステップを含む、
請求項177記載の方法。 - 骨の上の軟骨面の高さを検出するステップ、
該骨の表現および該軟骨面の該高さの表現を生成するステップ、および
該軟骨面の検出された高さに少なくとも部分的に基づいて該骨にインプラントを埋植するための骨調製をプラニングするステップを含む、
外科プラニング法。 - 骨調製をプラニングするステップが、インプラントの表現の少なくとも一部分を軟骨面の高さの表現と整合させることを含む、請求項179記載の方法。
- 骨調製をプラニングするステップが、インプラントの表現の深さ、回旋、内/外位置、前方/後方位置、内/外角、内反/外反角、屈曲角およびサイズの少なくとも一つを調節することを含む、請求項179記載の方法。
- インプラントの表現の深さ、内/外角、内反/外反角、屈曲角およびサイズの少なくとも一つを表示デバイス上に表示するステップをさらに含む、請求項179記載の方法。
- 軟骨面の高さの表現が視覚表現および数値表現の少なくとも一方を含む、請求項180記載の方法。
- インプラントの表現を骨の表現に重ね合わせるステップをさらに含む、請求項180記載の方法。
- インプラントの表現を骨の表現と対応させるステップをさらに含む、請求項179記載の方法。
- 骨を外科ツールで彫刻するステップ、および
仮想境界に貫入しないように該外科ツールの先端が拘束されるように該外科ツールを拘束するステップをさらに含む、
請求項179記載の方法。 - 仮想境界の少なくとも一部分がインプラントの表現を含む、請求項186記載の方法。
- 仮想境界の少なくとも一部分の形がインプラントの表面の形に一致する、請求項186記載の方法。
- インプラントを受けるように骨を彫刻するステップ、および
該インプラントを該骨に装着するステップをさらに含む、
請求項179記載の方法。 - 関節の第二の骨の表現を生成するステップ、
該関節を第一の位置に動かすステップ、
該関節が該第一の位置にあるとき、該関節の第一の位置に対応する第一の点を特定するステップ、
該関節を第二の位置に動かすステップ、
該関節が該第二の位置にあるとき、該関節の第二の位置に対応する第二の点を特定するステップ、および
該第一および第二の点に少なくとも部分的に基づいて第二のインプラントを該第二の骨に埋植するための骨調製をプラニングするステップをさらに含む、
請求項189記載の方法。 - 関節を第一の位置に動かすステップが、該関節を屈曲状態および伸展状態の一方に動かすことを含む、請求項190記載の方法。
- 関節を第二の位置に動かすステップが、該関節を屈曲状態および伸展状態の一方に動かすことを含む、請求項190記載の方法。
- 第一の場所および第二の場所の少なくとも一方が、骨に装着されたインプラント上の場所を含む、請求項190記載の方法。
- 第一の場所および第二の場所の少なくとも一方が、関節中に配置された既存のインプラント上の場所を含む、請求項190記載の方法。
- 第二のインプラントを埋植するための骨調製をプラニングするステップが、該第二のインプラントの表現の中心線を第一および第二の点と整合させることを含む、請求項190記載の方法。
- 第二のインプラントを埋植するための骨調製をプラニングするステップが、該第二のインプラントの表現の深さ、回旋、内/外位置、前方/後方位置、内/外角、内反/外反角、屈曲角およびサイズの少なくとも一つを調節することを含む、請求項190記載の方法。
- 第二のインプラントの表現を第二の骨の表現に重ね合わせるステップをさらに含む、請求項190記載の方法。
- 第二のインプラントの表現の深さ、内/外角、内反/外反角、屈曲角およびサイズの少なくとも一つを表示デバイス上に表示するステップをさらに含む、請求項190記載の方法。
- 第二のインプラントの表現を第二の骨の表現と対応させるステップをさらに含む、請求項190記載の方法。
- 第二の骨を外科ツールで彫刻するステップ、および
仮想境界に貫入しないように該外科ツールの先端が拘束されるように該外科ツールを拘束するステップをさらに含む、
請求項190記載の方法。 - 仮想境界の少なくとも一部分が第二のインプラントの表現を含む、請求項200記載の方法。
- 仮想境界の少なくとも一部分の形が第二のインプラントの表面の形に一致する、請求項200記載の方法。
- 第二の骨の動きに応答して仮想境界を調節するステップをさらに含む、請求項200記載の方法。
- 関節の骨の表現を生成するステップ、
該関節を第一の位置に動かすステップ、
該関節が該第一の位置にあるとき、該関節の第一の場所に対応する第一の点を特定するステップ、
該関節を第二の位置に動かすステップ、
該関節が該第二の位置にあるとき、該関節の第二の場所に対応する第二の点を特定するステップ、および
該第一および第二の点に少なくとも部分的に基づいてインプラントを前記骨に埋植するための骨調製をプラニングするステップを含む、
外科プラニング法。 - 関節を第一の位置に動かすステップが、該関節を屈曲状態および伸展状態の一方に動かすことを含む、請求項204記載の方法。
- 関節を第二の位置に動かすステップが、該関節を屈曲状態および伸展状態の一方に動かすことを含む、請求項204記載の方法。
- 第一の場所および第二の場所の少なくとも一方が、関節の反対側の骨に配置されたインプラント上の場所を含む、請求項204記載の方法。
- 第一の場所および第二の場所の少なくとも一方が、関節中に配置された第二のインプラント上の場所を含む、請求項204記載の方法。
- 骨調製をプラニングするステップが、インプラントの表現の中心線を第一および第二の点と整合させることを含む、請求項204記載の方法。
- 骨調製をプラニングするステップが、インプラントの表現の深さ、回旋、内/外位置、前方/後方位置、内/外角、内反/外反角、屈曲角およびサイズの少なくとも一つを調節することを含む、請求項204記載の方法。
- インプラントの表現を骨の表現に重ね合わせるステップをさらに含む、請求項204記載の方法。
- インプラントの表現の深さ、内/外角、内反/外反角、屈曲角およびサイズの少なくとも一つを表示デバイス上に表示するステップをさらに含む、請求項204記載の方法。
- インプラントの表現を骨の表現と対応させるステップをさらに含む、請求項204記載の方法。
- 骨を外科ツールで彫刻するステップ、および
仮想境界に貫入しないように該外科ツールの先端が拘束されるように該外科ツールを拘束するステップをさらに含む、
請求項204記載の方法。 - 仮想境界の少なくとも一部分がインプラントの表現を含む、請求項214記載の方法。
- 仮想境界の少なくとも一部分の形がインプラントの表面の形に一致する、請求項214記載の方法。
- 骨の動きに応答して仮想境界を調節するステップをさらに含む、請求項214記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US65564205P | 2005-02-22 | 2005-02-22 | |
US75918606P | 2006-01-17 | 2006-01-17 | |
PCT/US2006/005700 WO2006091494A1 (en) | 2005-02-22 | 2006-02-21 | Haptic guidance system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008538184A true JP2008538184A (ja) | 2008-10-16 |
Family
ID=38663548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007556331A Withdrawn JP2008538184A (ja) | 2005-02-22 | 2006-02-21 | 触覚誘導システムおよび方法 |
Country Status (5)
Country | Link |
---|---|
EP (2) | EP3470040B1 (ja) |
JP (1) | JP2008538184A (ja) |
CN (1) | CN101160104B (ja) |
CA (2) | CA2826925C (ja) |
WO (1) | WO2006091494A1 (ja) |
Cited By (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009172718A (ja) * | 2008-01-24 | 2009-08-06 | Canon Inc | 作業装置及びその校正方法 |
KR20140009359A (ko) * | 2011-02-18 | 2014-01-22 | 디퍼이 신테스 프로덕츠, 엘엘씨 | 일체형 내비게이션 및 안내 시스템을 갖는 도구와 관련 장치 및 방법 |
JP2015504694A (ja) * | 2011-12-06 | 2015-02-16 | ユニベルシテ ピエール エ マリーキュリー(パリ シズエム) | 患者の内部器官に対して医療機器を位置決めするための補助装置及び補助装置を制御する方法 |
WO2015046081A1 (ja) * | 2013-09-24 | 2015-04-02 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用ロボットアーム装置、医療用ロボットアーム制御システム、医療用ロボットアーム制御方法及びプログラム |
JP2015534480A (ja) * | 2012-09-26 | 2015-12-03 | ストライカー・コーポレイション | 光学式センサ及び非光学式センサを備えたナビゲーションシステム |
JP2016505328A (ja) * | 2012-12-21 | 2016-02-25 | マコ サージカル コーポレーション | 手術道具の触覚制御のためのシステム及び方法 |
JP2016507295A (ja) * | 2013-01-16 | 2016-03-10 | ストライカー・コーポレイション | 見通し線エラーを示し、かつ低減させるためのナビゲーションシステムおよび方法 |
JP2016512084A (ja) * | 2013-03-13 | 2016-04-25 | ストライカー・コーポレイション | 仮想制約境界を確立するシステム及び方法 |
JP2016538006A (ja) * | 2013-09-30 | 2016-12-08 | ストライカー・コーポレイション | 外科手技の際に患者の解剖学的構造を操作するためのロボットシステムを制御するシステム及び方法 |
KR20170062048A (ko) * | 2015-11-27 | 2017-06-07 | 큐렉소 주식회사 | 정형외과 수술용 마커 위치 확인 시스템 및 그 확인 방법 |
JP2017515522A (ja) * | 2014-03-17 | 2017-06-15 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 遠隔操作医療システムのための誘導セットアップ |
JP2017205495A (ja) * | 2016-04-11 | 2017-11-24 | グローバス メディカル インコーポレイティッド | 外科用ツールシステム及び方法 |
JP2018126498A (ja) * | 2017-01-18 | 2018-08-16 | ケービー メディカル エスアー | ロボット外科手術システムのロボットナビゲーション |
JP2018538019A (ja) * | 2015-10-14 | 2018-12-27 | サージヴィジオ | 医療画像に対してツールをナビゲートする蛍光ナビゲーションシステム |
WO2019058336A1 (en) * | 2017-09-23 | 2019-03-28 | Yazdian Seiedmuhammad | HANDLE FOR ROBOTIC SURGERY |
JP2019514705A (ja) * | 2016-04-24 | 2019-06-06 | カスタニエンバオム ゲーエムベーハーKastanienbaum Gmbh | ロボットの動作シーケンスの設定方法および設定装置 |
JP2019523686A (ja) * | 2016-05-27 | 2019-08-29 | マコー サージカル コーポレイション | 手術システム用の術前計画及び関連する術中見当合わせ |
US10537395B2 (en) | 2016-05-26 | 2020-01-21 | MAKO Surgical Group | Navigation tracker with kinematic connector assembly |
JP2020014840A (ja) * | 2018-06-29 | 2020-01-30 | グローバス メディカル インコーポレイティッド | 追跡マーカーを備えた手術用ロボットオートメーション |
JP2020116421A (ja) * | 2014-09-30 | 2020-08-06 | オーリス ヘルス インコーポレイテッド | 仮軌道および可撓性内視鏡を有する構成可能なロボット手術システム |
JP2020168359A (ja) * | 2019-04-03 | 2020-10-15 | キヤノンメディカルシステムズ株式会社 | 医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム |
US10842461B2 (en) | 2012-06-21 | 2020-11-24 | Globus Medical, Inc. | Systems and methods of checking registrations for surgical systems |
US10874466B2 (en) | 2012-06-21 | 2020-12-29 | Globus Medical, Inc. | System and method for surgical tool insertion using multiaxis force and moment feedback |
US10932837B2 (en) | 2013-01-16 | 2021-03-02 | Mako Surgical Corp. | Tracking device using a bone plate for attaching to a patient's anatomy |
US10932873B2 (en) | 2014-03-17 | 2021-03-02 | Intuitive Surgical Operations, Inc. | Automated structure with pre-established arm positions in a teleoperated medical system |
JP2021053395A (ja) * | 2019-09-27 | 2021-04-08 | グローバス メディカル インコーポレイティッド | 受動的なエンドエフェクタを有する外科手術ロボット |
JP2021087665A (ja) * | 2019-12-05 | 2021-06-10 | 炳碩生醫股▲フン▼有限公司 | 手術支援システムおよびその表面情報を取得する方法 |
US11045267B2 (en) | 2012-06-21 | 2021-06-29 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US11103317B2 (en) | 2012-06-21 | 2021-08-31 | Globus Medical, Inc. | Surgical robot platform |
US11109922B2 (en) | 2012-06-21 | 2021-09-07 | Globus Medical, Inc. | Surgical tool systems and method |
JP2022002711A (ja) * | 2015-12-31 | 2022-01-11 | ストライカー・コーポレイション | 仮想オブジェクトにより規定される患者の標的部位に対して外科手術を行うシステムおよび方法 |
US11253327B2 (en) | 2012-06-21 | 2022-02-22 | Globus Medical, Inc. | Systems and methods for automatically changing an end-effector on a surgical robot |
US11298186B2 (en) | 2018-08-02 | 2022-04-12 | Point Robotics Medtech Inc. | Surgery assistive system and method for obtaining surface information thereof |
US11298196B2 (en) | 2012-06-21 | 2022-04-12 | Globus Medical Inc. | Surgical robotic automation with tracking markers and controlled tool advancement |
US11317971B2 (en) | 2012-06-21 | 2022-05-03 | Globus Medical, Inc. | Systems and methods related to robotic guidance in surgery |
US11395706B2 (en) | 2012-06-21 | 2022-07-26 | Globus Medical Inc. | Surgical robot platform |
US11399900B2 (en) | 2012-06-21 | 2022-08-02 | Globus Medical, Inc. | Robotic systems providing co-registration using natural fiducials and related methods |
JP2022123109A (ja) * | 2014-09-23 | 2022-08-23 | シンク サージカル, インコーポレイテッド | 複数平面の可変形状のジグザグ切断の関節接合ドリルシステム |
US11426178B2 (en) | 2019-09-27 | 2022-08-30 | Globus Medical Inc. | Systems and methods for navigating a pin guide driver |
US11439471B2 (en) | 2012-06-21 | 2022-09-13 | Globus Medical, Inc. | Surgical tool system and method |
US11589771B2 (en) | 2012-06-21 | 2023-02-28 | Globus Medical Inc. | Method for recording probe movement and determining an extent of matter removed |
US11607149B2 (en) | 2012-06-21 | 2023-03-21 | Globus Medical Inc. | Surgical tool systems and method |
JP2023512006A (ja) * | 2020-01-31 | 2023-03-23 | キュレクソ インコーポレイテッド | 関節置換ロボット手術情報の提供装置及び提供方法 |
US11786324B2 (en) | 2012-06-21 | 2023-10-17 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US11793570B2 (en) | 2012-06-21 | 2023-10-24 | Globus Medical Inc. | Surgical robotic automation with tracking markers |
US11813030B2 (en) | 2017-03-16 | 2023-11-14 | Globus Medical, Inc. | Robotic navigation of robotic surgical systems |
US11819365B2 (en) | 2012-06-21 | 2023-11-21 | Globus Medical, Inc. | System and method for measuring depth of instrumentation |
US11857266B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | System for a surveillance marker in robotic-assisted surgery |
US11857149B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | Surgical robotic systems with target trajectory deviation monitoring and related methods |
US11864745B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical, Inc. | Surgical robotic system with retractor |
US11864857B2 (en) | 2019-09-27 | 2024-01-09 | Globus Medical, Inc. | Surgical robot with passive end effector |
US11864839B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical Inc. | Methods of adjusting a virtual implant and related surgical navigation systems |
US11883217B2 (en) | 2016-02-03 | 2024-01-30 | Globus Medical, Inc. | Portable medical imaging system and method |
US11896446B2 (en) | 2012-06-21 | 2024-02-13 | Globus Medical, Inc | Surgical robotic automation with tracking markers |
US11896363B2 (en) | 2013-03-15 | 2024-02-13 | Globus Medical Inc. | Surgical robot platform |
US11963755B2 (en) | 2012-06-21 | 2024-04-23 | Globus Medical Inc. | Apparatus for recording probe movement |
US11974822B2 (en) | 2012-06-21 | 2024-05-07 | Globus Medical Inc. | Method for a surveillance marker in robotic-assisted surgery |
US11980430B2 (en) | 2006-02-16 | 2024-05-14 | Globus Medical, Inc. | Surgical tool systems and methods |
JP7497440B2 (ja) | 2019-12-31 | 2024-06-10 | オーリス ヘルス インコーポレイテッド | 経皮的アクセスのための位置合わせインターフェース |
US12004905B2 (en) | 2012-06-21 | 2024-06-11 | Globus Medical, Inc. | Medical imaging systems using robotic actuators and related methods |
Families Citing this family (211)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8944070B2 (en) | 1999-04-07 | 2015-02-03 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
US8010180B2 (en) | 2002-03-06 | 2011-08-30 | Mako Surgical Corp. | Haptic guidance system and method |
WO2003077101A2 (en) | 2002-03-06 | 2003-09-18 | Z-Kat, Inc. | System and method for using a haptic device in combination with a computer-assisted surgery system |
US11202676B2 (en) | 2002-03-06 | 2021-12-21 | Mako Surgical Corp. | Neural monitor-based dynamic haptics |
US8996169B2 (en) | 2011-12-29 | 2015-03-31 | Mako Surgical Corp. | Neural monitor-based dynamic haptics |
US9867669B2 (en) | 2008-12-31 | 2018-01-16 | Intuitive Surgical Operations, Inc. | Configuration marker design and detection for instrument tracking |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
CN101448467B (zh) | 2006-05-19 | 2014-07-09 | 马科外科公司 | 用于控制触觉设备的方法和装置 |
US8419717B2 (en) | 2006-06-13 | 2013-04-16 | Intuitive Surgical Operations, Inc. | Control system configured to compensate for non-ideal actuator-to-joint linkage characteristics in a medical robotic system |
US20080064931A1 (en) | 2006-06-13 | 2008-03-13 | Intuitive Surgical, Inc. | Minimally invasive surgical illumination |
US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US20090192523A1 (en) | 2006-06-29 | 2009-07-30 | Intuitive Surgical, Inc. | Synthetic representation of a surgical instrument |
US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US8620473B2 (en) | 2007-06-13 | 2013-12-31 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US8617171B2 (en) | 2007-12-18 | 2013-12-31 | Otismed Corporation | Preoperatively planning an arthroplasty procedure and generating a corresponding patient specific arthroplasty resection guide |
GB0806813D0 (en) * | 2008-04-15 | 2008-05-14 | Smith & Nephew Orthopaedics Ag | Medical navigation method and system |
US8864652B2 (en) | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
EP2400927A2 (en) * | 2009-02-24 | 2012-01-04 | Mako Surgical Corp. | Prosthetic device, method of planning bone removal for implantation of prosthetic device, and robotic system |
ES2388029B1 (es) * | 2009-05-22 | 2013-08-13 | Universitat Politècnica De Catalunya | Sistema robótico para cirugia laparoscópica. |
US8663220B2 (en) | 2009-07-15 | 2014-03-04 | Ethicon Endo-Surgery, Inc. | Ultrasonic surgical instruments |
US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
EP2482748B1 (en) | 2009-10-01 | 2020-12-30 | Mako Surgical Corp. | Robotic system for multi-functional tool |
US11090104B2 (en) | 2009-10-09 | 2021-08-17 | Cilag Gmbh International | Surgical generator for ultrasonic and electrosurgical devices |
JP4962551B2 (ja) * | 2009-10-20 | 2012-06-27 | 株式会社安川電機 | ロボットシステムおよびロボットシステムの制御方法 |
EP2496128A1 (en) * | 2009-11-04 | 2012-09-12 | Koninklijke Philips Electronics N.V. | Collision avoidance and detection using distance sensors |
CN102740791A (zh) * | 2009-12-14 | 2012-10-17 | 史密夫和内修有限公司 | 可视化引导acl定位系统 |
CN102711635B (zh) * | 2010-01-15 | 2015-06-10 | 意美森公司 | 用于带有触觉反馈的微创外科手术工具的系统和方法 |
JP5499762B2 (ja) * | 2010-02-24 | 2014-05-21 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム及び画像処理システム |
DE102010027572A1 (de) * | 2010-07-19 | 2012-04-19 | Kuka Roboter Gmbh | Manipulatorsteuerung |
CN101984931A (zh) * | 2010-11-24 | 2011-03-16 | 上海应用技术学院 | 股骨头无菌性坏死微创手术计算机辅助导航系统 |
US9119655B2 (en) | 2012-08-03 | 2015-09-01 | Stryker Corporation | Surgical manipulator capable of controlling a surgical instrument in multiple modes |
US9921712B2 (en) | 2010-12-29 | 2018-03-20 | Mako Surgical Corp. | System and method for providing substantially stable control of a surgical tool |
US9125669B2 (en) * | 2011-02-14 | 2015-09-08 | Mako Surgical Corporation | Haptic volumes for reaming during arthroplasty |
WO2012121961A1 (en) | 2011-03-04 | 2012-09-13 | Apple Inc. | Linear vibrator providing localized and generalized haptic feedback |
JP5856745B2 (ja) | 2011-03-15 | 2016-02-10 | オリンパス株式会社 | 手術システム及びその制御方法 |
WO2012131660A1 (en) | 2011-04-01 | 2012-10-04 | Ecole Polytechnique Federale De Lausanne (Epfl) | Robotic system for spinal and other surgeries |
US9218727B2 (en) | 2011-05-12 | 2015-12-22 | Apple Inc. | Vibration in portable devices |
US9710061B2 (en) | 2011-06-17 | 2017-07-18 | Apple Inc. | Haptic feedback device |
US20130096573A1 (en) * | 2011-10-18 | 2013-04-18 | Hyosig Kang | System and method for surgical tool tracking |
FR2982761B1 (fr) * | 2011-11-21 | 2022-04-29 | Gen Electric | Procedes d'assistance a la manipulation d'un instrument, et ensemble d'assistance associe |
FR2983059B1 (fr) * | 2011-11-30 | 2014-11-28 | Medtech | Procede assiste par robotique de positionnement d'instrument chirurgical par rapport au corps d'un patient et dispositif de mise en oeuvre. |
WO2013101753A1 (en) | 2011-12-30 | 2013-07-04 | Mako Surgical Corp. | Systems and methods for customizing interactive haptic boundaries |
JP6041504B2 (ja) * | 2012-03-15 | 2016-12-07 | 富士フイルム株式会社 | 医用画像表示装置、医用画像表示方法および医用画像表示プログラム |
CN102764157B (zh) * | 2012-04-13 | 2014-12-10 | 中国科学院深圳先进技术研究院 | 骨科手术机器人 |
EP2852348B1 (en) | 2012-05-22 | 2019-08-28 | Mako Surgical Corp. | Soft tissue cutting instrument |
US20140005705A1 (en) | 2012-06-29 | 2014-01-02 | Ethicon Endo-Surgery, Inc. | Surgical instruments with articulating shafts |
US9393037B2 (en) | 2012-06-29 | 2016-07-19 | Ethicon Endo-Surgery, Llc | Surgical instruments with articulating shafts |
US9408622B2 (en) | 2012-06-29 | 2016-08-09 | Ethicon Endo-Surgery, Llc | Surgical instruments with articulating shafts |
CA2866197C (en) * | 2012-07-30 | 2021-04-13 | Orthosoft Inc. | Method and system for creating frame of reference for cas with inertial sensors |
CN112932672A (zh) | 2012-08-03 | 2021-06-11 | 史赛克公司 | 用于机器人外科手术的系统和方法 |
US9820818B2 (en) | 2012-08-03 | 2017-11-21 | Stryker Corporation | System and method for controlling a surgical manipulator based on implant parameters |
US9226796B2 (en) | 2012-08-03 | 2016-01-05 | Stryker Corporation | Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path |
AU2013299493A1 (en) * | 2012-08-09 | 2015-02-26 | Smith & Nephew, Inc. | Patient matched instrument |
EP2891097A4 (en) | 2012-08-31 | 2017-01-04 | Smith & Nephew, Inc. | Patient specific implant technology |
CN102920430B (zh) * | 2012-10-10 | 2014-07-09 | 长庚大学 | 触觉运动刺激装置 |
TWI469774B (zh) * | 2012-10-11 | 2015-01-21 | Univ Chang Gung | 觸覺運動刺激裝置 |
US9192445B2 (en) * | 2012-12-13 | 2015-11-24 | Mako Surgical Corp. | Registration and navigation using a three-dimensional tracking sensor |
US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
WO2014137876A2 (en) | 2013-03-08 | 2014-09-12 | Stryker Corporation | Bone pads |
GB201304411D0 (en) * | 2013-03-12 | 2013-04-24 | Meredith Neil | Improvements in Surgical Instruments |
CN104274244B (zh) * | 2013-07-04 | 2016-08-10 | 上海工程技术大学 | 微创手术器械的触觉反馈系统 |
US9283048B2 (en) * | 2013-10-04 | 2016-03-15 | KB Medical SA | Apparatus and systems for precise guidance of surgical tools |
CN103536349A (zh) * | 2013-10-18 | 2014-01-29 | 江苏艾迪尔医疗科技股份有限公司 | 一种骨科手术导引方法 |
EP2870941A1 (en) * | 2013-11-08 | 2015-05-13 | Orthotaxy | Method for planning a surgical intervention |
EP3089710B1 (en) * | 2013-12-31 | 2018-08-29 | MAKO Surgical Corp. | Systems and methods for preparing a proximal tibia |
CN105939687B (zh) * | 2013-12-31 | 2019-08-30 | 马科外科公司 | 定制触觉边界的方法和计算机辅助外科手术系统 |
EP3094272B1 (en) | 2014-01-15 | 2021-04-21 | KB Medical SA | Notched apparatus for guidance of an insertable instrument along an axis during spinal surgery |
EP3104803B1 (en) | 2014-02-11 | 2021-09-15 | KB Medical SA | Sterile handle for controlling a robotic surgical system from a sterile field |
US9396629B1 (en) | 2014-02-21 | 2016-07-19 | Apple Inc. | Haptic modules with independently controllable vertical and horizontal mass movements |
US9594429B2 (en) | 2014-03-27 | 2017-03-14 | Apple Inc. | Adjusting the level of acoustic and haptic output in haptic devices |
US9737355B2 (en) | 2014-03-31 | 2017-08-22 | Ethicon Llc | Controlling impedance rise in electrosurgical medical devices |
EP3134022B1 (en) | 2014-04-24 | 2018-01-10 | KB Medical SA | Surgical instrument holder for use with a robotic surgical system |
US10133351B2 (en) * | 2014-05-21 | 2018-11-20 | Apple Inc. | Providing haptic output based on a determined orientation of an electronic device |
US20170100197A1 (en) * | 2014-06-05 | 2017-04-13 | Medrobotics Corporation | Articulating robotic probes, systesm and methods incorporating the same, and methods for performing surgical procedures |
US10828120B2 (en) | 2014-06-19 | 2020-11-10 | Kb Medical, Sa | Systems and methods for performing minimally invasive surgery |
US9886090B2 (en) | 2014-07-08 | 2018-02-06 | Apple Inc. | Haptic notifications utilizing haptic input devices |
CN104127209B (zh) * | 2014-08-12 | 2016-03-23 | 梁迪 | 腔镜全息成像手术系统 |
WO2016044934A1 (en) | 2014-09-24 | 2016-03-31 | 7D Surgical Inc. | Tracking marker support structure and surface registration methods employing the same for performing navigated surgical procedures |
CN104287836B (zh) * | 2014-10-24 | 2017-02-01 | 南开大学 | 一种能实现钻磨状态监控的手术机器人半刚性智能器械臂 |
KR102623373B1 (ko) | 2014-10-27 | 2024-01-11 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 통합 수술 테이블 운동을 위한 시스템 및 방법 |
KR102628659B1 (ko) | 2014-10-27 | 2024-01-25 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 반응 운동 동안 제어점을 감시하기 위한 시스템 및 방법 |
CN107072724B (zh) | 2014-10-27 | 2019-10-25 | 直观外科手术操作公司 | 用于器械干扰补偿的系统和方法 |
WO2016069648A1 (en) | 2014-10-27 | 2016-05-06 | Intuitive Surgical Operations, Inc. | System and method for integrated surgical table |
EP3912610B1 (en) | 2014-10-27 | 2023-03-15 | Intuitive Surgical Operations, Inc. | System for registering to a surgical table |
JP6644061B2 (ja) * | 2014-10-27 | 2020-02-12 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 能動的ブレーキ解放制御装置を備える医療デバイス |
US20160128783A1 (en) | 2014-10-29 | 2016-05-12 | Intellijoint Surgical Inc. | Surgical navigation system with one or more body borne components and method therefor |
US11103316B2 (en) | 2014-12-02 | 2021-08-31 | Globus Medical Inc. | Robot assisted volume removal during surgery |
CN104399169A (zh) * | 2014-12-10 | 2015-03-11 | 李兰玲 | 一种手术室中病人术前抚慰装置 |
US10555782B2 (en) | 2015-02-18 | 2020-02-11 | Globus Medical, Inc. | Systems and methods for performing minimally invasive spinal surgery with a robotic surgical system using a percutaneous technique |
CN104739462A (zh) * | 2015-04-24 | 2015-07-01 | 杨明 | 一种外科手术系统 |
EP3307196A4 (en) * | 2015-06-09 | 2019-06-19 | Intuitive Surgical Operations Inc. | SURGICAL SYSTEM CONFIGURATION WITH ATLAS OF SURGICAL PROCEDURES |
DE102015109371A1 (de) * | 2015-06-12 | 2016-12-15 | avateramedical GmBH | Vorrichtung und Verfahren zur robotergestützten Chirurgie |
CN104905927B (zh) * | 2015-06-18 | 2017-04-12 | 济南市儿童医院 | 外科疾病检测床 |
DE102015009048B3 (de) * | 2015-07-13 | 2016-08-18 | Kuka Roboter Gmbh | Steuern eines nachgiebig geregelten Roboters |
WO2017015105A1 (en) * | 2015-07-17 | 2017-01-26 | Apex Brands, Inc. | Vision system with automatic calibration |
US20170024010A1 (en) | 2015-07-21 | 2017-01-26 | Apple Inc. | Guidance device for the sensory impaired |
CN107920866B (zh) * | 2015-08-20 | 2019-08-06 | 索尼奥林巴斯医疗解决方案公司 | 医疗观察装置和医疗观察系统 |
CN105848606B (zh) * | 2015-08-24 | 2019-02-22 | 深圳市鑫君特智能医疗器械有限公司 | 一种智能骨科手术系统 |
JP6894431B2 (ja) | 2015-08-31 | 2021-06-30 | ケービー メディカル エスアー | ロボット外科用システム及び方法 |
US20170086909A1 (en) | 2015-09-30 | 2017-03-30 | Ethicon Endo-Surgery, Llc | Frequency agile generator for a surgical instrument |
US10595930B2 (en) | 2015-10-16 | 2020-03-24 | Ethicon Llc | Electrode wiping surgical device |
EP3373834A4 (en) | 2015-11-12 | 2019-07-31 | Intuitive Surgical Operations Inc. | SURGICAL SYSTEM WITH TRAINING OR ASSISTANCE FUNCTION |
GB201521848D0 (en) * | 2015-12-11 | 2016-01-27 | Micromass Ltd | Feedback apparatus |
US11229471B2 (en) | 2016-01-15 | 2022-01-25 | Cilag Gmbh International | Modular battery powered handheld surgical instrument with selective application of energy based on tissue characterization |
US10842523B2 (en) | 2016-01-15 | 2020-11-24 | Ethicon Llc | Modular battery powered handheld surgical instrument and methods therefor |
US11185373B2 (en) | 2016-03-02 | 2021-11-30 | Think Surgical, Inc. | Method for recovering a registration of a bone |
US10772394B1 (en) | 2016-03-08 | 2020-09-15 | Apple Inc. | Tactile output for wearable device |
EP3439558B1 (en) * | 2016-04-06 | 2021-06-02 | X-Nav Technologies, LLC | System for providing probe trace fiducial-free tracking |
JP6831642B2 (ja) | 2016-04-15 | 2021-02-17 | 川崎重工業株式会社 | 外科手術システム |
US10456193B2 (en) | 2016-05-03 | 2019-10-29 | Ethicon Llc | Medical device with a bilateral jaw configuration for nerve stimulation |
US10585480B1 (en) | 2016-05-10 | 2020-03-10 | Apple Inc. | Electronic device with an input device having a haptic engine |
US9829981B1 (en) | 2016-05-26 | 2017-11-28 | Apple Inc. | Haptic output device |
US10649529B1 (en) | 2016-06-28 | 2020-05-12 | Apple Inc. | Modification of user-perceived feedback of an input device using acoustic or haptic output |
WO2018017210A1 (en) * | 2016-07-22 | 2018-01-25 | Harman International Industries, Incorporated | Haptic guidance system |
US10845878B1 (en) | 2016-07-25 | 2020-11-24 | Apple Inc. | Input device with tactile feedback |
US10537399B2 (en) * | 2016-08-16 | 2020-01-21 | Ethicon Llc | Surgical tool positioning based on sensed parameters |
US10372214B1 (en) | 2016-09-07 | 2019-08-06 | Apple Inc. | Adaptable user-selectable input area in an electronic device |
FR3057757B1 (fr) * | 2016-10-21 | 2021-04-16 | Medtech | Dispositif et procede de recalage automatique pour des images intra operatoires 3d |
US11266430B2 (en) | 2016-11-29 | 2022-03-08 | Cilag Gmbh International | End effector control and calibration |
US11202682B2 (en) | 2016-12-16 | 2021-12-21 | Mako Surgical Corp. | Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site |
JP2018114280A (ja) | 2017-01-18 | 2018-07-26 | ケービー メディカル エスアー | ロボット外科用システムのための汎用器具ガイド、外科用器具システム、及びそれらの使用方法 |
EP3351202B1 (en) * | 2017-01-18 | 2021-09-08 | KB Medical SA | Universal instrument guide for robotic surgical systems |
US10437359B1 (en) | 2017-02-28 | 2019-10-08 | Apple Inc. | Stylus with external magnetic influence |
AU2018265160B2 (en) * | 2017-05-10 | 2023-11-16 | Mako Surgical Corp. | Robotic spine surgery system and methods |
JP7244985B2 (ja) * | 2017-05-19 | 2023-03-23 | 川崎重工業株式会社 | 操作装置及び操作システム |
US10775889B1 (en) | 2017-07-21 | 2020-09-15 | Apple Inc. | Enclosure with locally-flexible regions |
CN107536643A (zh) * | 2017-08-18 | 2018-01-05 | 北京航空航天大学 | 一种前交叉韧带重建的增强现实手术导航系统 |
US10768747B2 (en) | 2017-08-31 | 2020-09-08 | Apple Inc. | Haptic realignment cues for touch-input displays |
CA3074443A1 (en) | 2017-09-05 | 2019-03-14 | Covidien Lp | Collision handling algorithms for robotic surgical systems |
US11054932B2 (en) | 2017-09-06 | 2021-07-06 | Apple Inc. | Electronic device having a touch sensor, force sensor, and haptic actuator in an integrated module |
US10556252B2 (en) | 2017-09-20 | 2020-02-11 | Apple Inc. | Electronic device having a tuned resonance haptic actuation system |
CN109528274A (zh) * | 2017-09-22 | 2019-03-29 | 清华大学深圳研究生院 | 一种配准方法和装置 |
US10768738B1 (en) | 2017-09-27 | 2020-09-08 | Apple Inc. | Electronic device having a haptic actuator with magnetic augmentation |
US11737893B2 (en) | 2017-10-06 | 2023-08-29 | Intellijoint Surgical Inc. | System and method for preoperative planning for total hip arthroplasty |
WO2019068194A1 (en) * | 2017-10-06 | 2019-04-11 | Intellijoint Surgical Inc. | PREOPERATIVE PLANNING SYSTEM AND METHOD FOR TOTAL HIP ARTHROPLASTY |
CN108992086A (zh) * | 2017-10-20 | 2018-12-14 | 深圳华大智造科技有限公司 | 超声检测装置、台车及超声系统 |
WO2019075719A1 (zh) * | 2017-10-20 | 2019-04-25 | 深圳华大智造科技有限公司 | 超声检测装置、超声控制装置、超声系统及超声成像方法 |
CN108042218A (zh) * | 2017-12-05 | 2018-05-18 | 北京军秀咨询有限公司 | 一种神经外科手术病人头部标记自动视觉定位装置及方法 |
US10881472B2 (en) | 2018-02-20 | 2021-01-05 | Verb Surgical Inc. | Correcting a robotic surgery user interface device tracking input |
EP3758640A4 (en) * | 2018-02-27 | 2022-06-01 | Mako Surgical Corp. | REGISTRATION TOOLS, SYSTEMS AND PROCEDURES |
DE102018105834A1 (de) * | 2018-03-14 | 2019-09-19 | Aesculap Ag | Medizintechnisches System und Verfahren zum nichtinvasiven Tracken eines Objektes |
CN110338907A (zh) * | 2018-04-05 | 2019-10-18 | 云南师范大学 | 一种用于医学影像引导手术的触觉导航系统 |
CN108606836B (zh) * | 2018-05-18 | 2020-03-17 | 广州瑞派医疗器械有限责任公司 | 外科手术系统 |
CN208784914U (zh) * | 2018-05-21 | 2019-04-26 | 华志微创医疗科技(北京)有限公司 | 一种具有立体定向功能的机器人 |
US10942571B2 (en) | 2018-06-29 | 2021-03-09 | Apple Inc. | Laptop computing device with discrete haptic regions |
US10936071B2 (en) | 2018-08-30 | 2021-03-02 | Apple Inc. | Wearable electronic device with haptic rotatable input |
CN109199766B (zh) * | 2018-09-05 | 2020-06-05 | 郑州大学第一附属医院 | 一种专业用于普外科防积液四肢手术装置 |
US11612438B2 (en) | 2018-09-05 | 2023-03-28 | Point Robotics Medtech Inc. | Navigation system and method for medical operation by a robotic system using a tool |
US10613678B1 (en) | 2018-09-17 | 2020-04-07 | Apple Inc. | Input device with haptic feedback |
US10966007B1 (en) | 2018-09-25 | 2021-03-30 | Apple Inc. | Haptic output system |
KR20210065139A (ko) * | 2018-09-27 | 2021-06-03 | 퀀텀 서지컬 | 자동 위치이동 수단을 포함하는 의료용 로봇 |
CN109316244A (zh) * | 2018-11-23 | 2019-02-12 | 西姆高新技术(江苏)有限公司 | 医学影像成像系统 |
EP3669787A1 (en) * | 2018-12-19 | 2020-06-24 | Koninklijke Philips N.V. | Ultrasound transducer unit with friction guiding function |
WO2020139711A1 (en) | 2018-12-27 | 2020-07-02 | Mako Surgical Corp. | Systems and methods for surgical planning using soft tissue attachment points |
CN113397706A (zh) * | 2018-12-29 | 2021-09-17 | 华科精准(北京)医疗科技有限公司 | 一种手术导航系统 |
CN116491977A (zh) * | 2019-01-29 | 2023-07-28 | 深圳华大智造云影医疗科技有限公司 | 超声检测控制方法、装置、及计算机可读存储介质 |
CN109806003B (zh) * | 2019-01-30 | 2021-08-06 | 杭州键嘉机器人有限公司 | 执行杆、采用该执行杆的手术机器人及机器人定位方法 |
CN109646113B (zh) * | 2019-01-30 | 2021-04-30 | 杭州键嘉机器人有限公司 | 匹配关节置换手术机器人的末端执行机构 |
CN110037768A (zh) * | 2019-04-23 | 2019-07-23 | 雅客智慧(北京)科技有限公司 | 关节置换手术辅助定位方法、定位装置及系统 |
CN110115635A (zh) * | 2019-05-23 | 2019-08-13 | 长江大学 | 一种自动追踪术野的照明系统 |
DE102019208287B4 (de) | 2019-06-06 | 2023-04-20 | Carl Zeiss Meditec Ag | Verfahren zum Betreiben eines Operationsmikroskopiesystems sowie Operationsmikroskopiesystem |
CN110432856A (zh) * | 2019-09-02 | 2019-11-12 | 太原理工大学 | 一种用于检查鼻窦的内窥镜控制系统 |
CN110522515B (zh) * | 2019-09-04 | 2021-09-24 | 上海电气集团股份有限公司 | 髋臼假体覆盖率的确定方法、系统、电子设备和存储介质 |
KR102274167B1 (ko) * | 2019-09-05 | 2021-07-12 | 큐렉소 주식회사 | 로봇의 위치 가이드 장치, 이의 방법 및 이를 포함하는 시스템 |
EP3827778A1 (en) | 2019-11-28 | 2021-06-02 | DePuy Ireland Unlimited Company | Surgical system and method for triggering a position change of a robotic device |
CN110946654B (zh) * | 2019-12-23 | 2022-02-08 | 中国科学院合肥物质科学研究院 | 一种基于多模影像融合的骨科手术导航系统 |
US11786291B2 (en) | 2019-12-30 | 2023-10-17 | Cilag Gmbh International | Deflectable support of RF energy electrode with respect to opposing ultrasonic blade |
US11812957B2 (en) | 2019-12-30 | 2023-11-14 | Cilag Gmbh International | Surgical instrument comprising a signal interference resolution system |
US20210196357A1 (en) | 2019-12-30 | 2021-07-01 | Ethicon Llc | Electrosurgical instrument with asynchronous energizing electrodes |
US11779387B2 (en) | 2019-12-30 | 2023-10-10 | Cilag Gmbh International | Clamp arm jaw to minimize tissue sticking and improve tissue control |
US11779329B2 (en) | 2019-12-30 | 2023-10-10 | Cilag Gmbh International | Surgical instrument comprising a flex circuit including a sensor system |
US11786294B2 (en) | 2019-12-30 | 2023-10-17 | Cilag Gmbh International | Control program for modular combination energy device |
US11950797B2 (en) | 2019-12-30 | 2024-04-09 | Cilag Gmbh International | Deflectable electrode with higher distal bias relative to proximal bias |
US11937863B2 (en) | 2019-12-30 | 2024-03-26 | Cilag Gmbh International | Deflectable electrode with variable compression bias along the length of the deflectable electrode |
US11937866B2 (en) | 2019-12-30 | 2024-03-26 | Cilag Gmbh International | Method for an electrosurgical procedure |
US11696776B2 (en) | 2019-12-30 | 2023-07-11 | Cilag Gmbh International | Articulatable surgical instrument |
US11707318B2 (en) | 2019-12-30 | 2023-07-25 | Cilag Gmbh International | Surgical instrument with jaw alignment features |
US11660089B2 (en) | 2019-12-30 | 2023-05-30 | Cilag Gmbh International | Surgical instrument comprising a sensing system |
US11986201B2 (en) | 2019-12-30 | 2024-05-21 | Cilag Gmbh International | Method for operating a surgical instrument |
US11944366B2 (en) | 2019-12-30 | 2024-04-02 | Cilag Gmbh International | Asymmetric segmented ultrasonic support pad for cooperative engagement with a movable RF electrode |
US11452525B2 (en) | 2019-12-30 | 2022-09-27 | Cilag Gmbh International | Surgical instrument comprising an adjustment system |
US20210196361A1 (en) | 2019-12-30 | 2021-07-01 | Ethicon Llc | Electrosurgical instrument with monopolar and bipolar energy capabilities |
CN111297475B (zh) * | 2020-02-19 | 2021-06-18 | 苏州微创畅行机器人有限公司 | 骨注册方法、骨注册系统、骨注册控制装置及可跟踪元件 |
CN111227932B (zh) * | 2020-02-19 | 2021-06-04 | 苏州微创畅行机器人有限公司 | 骨注册方法、骨注册系统、骨注册控制装置及可跟踪元件 |
US11793574B2 (en) | 2020-03-16 | 2023-10-24 | Stryker Australia Pty Ltd | Automated cut planning for removal of diseased regions |
CN111493795B (zh) * | 2020-04-07 | 2023-07-04 | 上海澳华内镜股份有限公司 | 分体式内窥镜装置 |
DE102020205804A1 (de) * | 2020-05-08 | 2021-11-11 | Siemens Healthcare Gmbh | Unterstützung einer medizinischen Intervention |
JP7322821B2 (ja) * | 2020-06-11 | 2023-08-08 | トヨタ自動車株式会社 | ロボット制御システム、ロボット制御方法、及び、プログラム |
US11024135B1 (en) | 2020-06-17 | 2021-06-01 | Apple Inc. | Portable electronic device having a haptic button assembly |
CN111906784B (zh) * | 2020-07-23 | 2023-04-07 | 湖南爱米家智能科技有限公司 | 一种基于机器视觉引导的咽拭子双臂采样机器人及采样方法 |
CN111855232A (zh) * | 2020-07-29 | 2020-10-30 | 南京工程学院 | 一种全自动车用底盘电子测量仪 |
DE102020211132A1 (de) | 2020-09-03 | 2021-09-02 | Carl Zeiss Meditec Ag | Verfahren zum Betreiben eines Mikroskopiesystems sowie Mikroskopiesystem |
CN112603716A (zh) * | 2020-11-30 | 2021-04-06 | 鲁朝康 | 一种医疗手术导向设备 |
CN113081267B (zh) * | 2021-03-26 | 2021-12-28 | 北京长木谷医疗科技有限公司 | 误差消除方法、装置、电子设备及存储介质 |
CN113116671B (zh) * | 2021-04-19 | 2022-04-19 | 中国人民解放军陆军特色医学中心 | 一种眼科手术固定装置 |
US20230001576A1 (en) * | 2021-06-30 | 2023-01-05 | Delta Electronics Int'l (Singapore) Pte Ltd | Adaptive mobile manipulation apparatus and method |
WO2023280310A1 (zh) * | 2021-07-09 | 2023-01-12 | 武汉联影智融医疗科技有限公司 | 一种手术机器人及其控制方法 |
CN113509296B (zh) * | 2021-07-09 | 2023-08-11 | 武汉联影智融医疗科技有限公司 | 自动调整髋臼杯位姿的方法、系统和手术机器人 |
CN113516716B (zh) * | 2021-07-16 | 2022-11-08 | 燕山大学 | 一种单目视觉位姿测量及调整方法和系统 |
CN116098713A (zh) * | 2021-11-11 | 2023-05-12 | 深圳市精锋医疗科技股份有限公司 | 主手手腕、主操作设备及手术机器人 |
CN114211493B (zh) * | 2021-12-23 | 2023-10-27 | 武汉联影智融医疗科技有限公司 | 机械臂的远程控制系统和方法 |
CN114209431B (zh) * | 2021-12-24 | 2023-11-21 | 杭州柳叶刀机器人有限公司 | 光学探针识别方法、装置、电子设备及存储介质 |
US20230329813A1 (en) * | 2022-04-18 | 2023-10-19 | Mako Surgical Corp. | Systems And Methods For Guided Placement Of A Robotic Manipulator |
CN116370810B (zh) * | 2023-06-06 | 2023-09-26 | 浙江伽奈维医疗科技有限公司 | 远程遥控粒子植入装置 |
CN117084787B (zh) * | 2023-10-18 | 2024-01-05 | 杭州键嘉医疗科技股份有限公司 | 一种胫骨假体安装的内外旋角的检验方法及相关设备 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4903536A (en) | 1988-04-21 | 1990-02-27 | Massachusetts Institute Of Technology | Compact cable transmission with cable differential |
GB9405299D0 (en) | 1994-03-17 | 1994-04-27 | Roke Manor Research | Improvements in or relating to video-based systems for computer assisted surgery and localisation |
US6111577A (en) | 1996-04-04 | 2000-08-29 | Massachusetts Institute Of Technology | Method and apparatus for determining forces to be applied to a user through a haptic interface |
US5880976A (en) * | 1997-02-21 | 1999-03-09 | Carnegie Mellon University | Apparatus and method for facilitating the implantation of artificial components in joints |
US6033415A (en) | 1998-09-14 | 2000-03-07 | Integrated Surgical Systems | System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system |
US6322567B1 (en) | 1998-12-14 | 2001-11-27 | Integrated Surgical Systems, Inc. | Bone motion tracking system |
EP1355765B1 (en) | 2001-01-29 | 2008-05-07 | The Acrobot Company Limited | Active-constraint robots |
EP1364183B1 (en) | 2001-01-30 | 2013-11-06 | Mako Surgical Corp. | Tool calibrator and tracker system |
US6514259B2 (en) * | 2001-02-02 | 2003-02-04 | Carnegie Mellon University | Probe and associated system and method for facilitating planar osteotomy during arthoplasty |
US7547307B2 (en) * | 2001-02-27 | 2009-06-16 | Smith & Nephew, Inc. | Computer assisted knee arthroplasty instrumentation, systems, and processes |
ES2223708T3 (es) * | 2001-11-09 | 2005-03-01 | Brainlab Ag | Brazo pivotante con actuadores pasivos. |
US7831292B2 (en) | 2002-03-06 | 2010-11-09 | Mako Surgical Corp. | Guidance system and method for surgical procedures with improved feedback |
WO2003077101A2 (en) | 2002-03-06 | 2003-09-18 | Z-Kat, Inc. | System and method for using a haptic device in combination with a computer-assisted surgery system |
US6757582B2 (en) * | 2002-05-03 | 2004-06-29 | Carnegie Mellon University | Methods and systems to control a shaping tool |
US6988009B2 (en) | 2003-02-04 | 2006-01-17 | Zimmer Technology, Inc. | Implant registration device for surgical navigation system |
-
2006
- 2006-02-21 CA CA2826925A patent/CA2826925C/en not_active Expired - Fee Related
- 2006-02-21 CN CN2006800124883A patent/CN101160104B/zh active Active
- 2006-02-21 JP JP2007556331A patent/JP2008538184A/ja not_active Withdrawn
- 2006-02-21 CA CA2598627A patent/CA2598627C/en not_active Expired - Fee Related
- 2006-02-21 EP EP18193075.1A patent/EP3470040B1/en active Active
- 2006-02-21 EP EP06735388.8A patent/EP1871267B1/en active Active
- 2006-02-21 WO PCT/US2006/005700 patent/WO2006091494A1/en active Application Filing
Cited By (115)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11980430B2 (en) | 2006-02-16 | 2024-05-14 | Globus Medical, Inc. | Surgical tool systems and methods |
JP2009172718A (ja) * | 2008-01-24 | 2009-08-06 | Canon Inc | 作業装置及びその校正方法 |
KR20140009359A (ko) * | 2011-02-18 | 2014-01-22 | 디퍼이 신테스 프로덕츠, 엘엘씨 | 일체형 내비게이션 및 안내 시스템을 갖는 도구와 관련 장치 및 방법 |
KR101964579B1 (ko) | 2011-02-18 | 2019-04-03 | 디퍼이 신테스 프로덕츠, 인코포레이티드 | 일체형 내비게이션 및 안내 시스템을 갖는 도구와 관련 장치 및 방법 |
JP2015504694A (ja) * | 2011-12-06 | 2015-02-16 | ユニベルシテ ピエール エ マリーキュリー(パリ シズエム) | 患者の内部器官に対して医療機器を位置決めするための補助装置及び補助装置を制御する方法 |
US11690687B2 (en) | 2012-06-21 | 2023-07-04 | Globus Medical Inc. | Methods for performing medical procedures using a surgical robot |
US11793570B2 (en) | 2012-06-21 | 2023-10-24 | Globus Medical Inc. | Surgical robotic automation with tracking markers |
US11974822B2 (en) | 2012-06-21 | 2024-05-07 | Globus Medical Inc. | Method for a surveillance marker in robotic-assisted surgery |
US11963755B2 (en) | 2012-06-21 | 2024-04-23 | Globus Medical Inc. | Apparatus for recording probe movement |
US11896446B2 (en) | 2012-06-21 | 2024-02-13 | Globus Medical, Inc | Surgical robotic automation with tracking markers |
US11864839B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical Inc. | Methods of adjusting a virtual implant and related surgical navigation systems |
US11864745B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical, Inc. | Surgical robotic system with retractor |
US11191598B2 (en) | 2012-06-21 | 2021-12-07 | Globus Medical, Inc. | Surgical robot platform |
US11857149B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | Surgical robotic systems with target trajectory deviation monitoring and related methods |
US11607149B2 (en) | 2012-06-21 | 2023-03-21 | Globus Medical Inc. | Surgical tool systems and method |
US11317971B2 (en) | 2012-06-21 | 2022-05-03 | Globus Medical, Inc. | Systems and methods related to robotic guidance in surgery |
US11857266B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | System for a surveillance marker in robotic-assisted surgery |
US11135022B2 (en) | 2012-06-21 | 2021-10-05 | Globus Medical, Inc. | Surgical robot platform |
US11819365B2 (en) | 2012-06-21 | 2023-11-21 | Globus Medical, Inc. | System and method for measuring depth of instrumentation |
US11395706B2 (en) | 2012-06-21 | 2022-07-26 | Globus Medical Inc. | Surgical robot platform |
US11284949B2 (en) | 2012-06-21 | 2022-03-29 | Globus Medical, Inc. | Surgical robot platform |
US12004905B2 (en) | 2012-06-21 | 2024-06-11 | Globus Medical, Inc. | Medical imaging systems using robotic actuators and related methods |
US11331153B2 (en) | 2012-06-21 | 2022-05-17 | Globus Medical, Inc. | Surgical robot platform |
US11786324B2 (en) | 2012-06-21 | 2023-10-17 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US11253327B2 (en) | 2012-06-21 | 2022-02-22 | Globus Medical, Inc. | Systems and methods for automatically changing an end-effector on a surgical robot |
US11684433B2 (en) | 2012-06-21 | 2023-06-27 | Globus Medical Inc. | Surgical tool systems and method |
US11684431B2 (en) | 2012-06-21 | 2023-06-27 | Globus Medical, Inc. | Surgical robot platform |
US11589771B2 (en) | 2012-06-21 | 2023-02-28 | Globus Medical Inc. | Method for recording probe movement and determining an extent of matter removed |
US11109922B2 (en) | 2012-06-21 | 2021-09-07 | Globus Medical, Inc. | Surgical tool systems and method |
US11819283B2 (en) | 2012-06-21 | 2023-11-21 | Globus Medical Inc. | Systems and methods related to robotic guidance in surgery |
US11045267B2 (en) | 2012-06-21 | 2021-06-29 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US10874466B2 (en) | 2012-06-21 | 2020-12-29 | Globus Medical, Inc. | System and method for surgical tool insertion using multiaxis force and moment feedback |
US11103317B2 (en) | 2012-06-21 | 2021-08-31 | Globus Medical, Inc. | Surgical robot platform |
US11439471B2 (en) | 2012-06-21 | 2022-09-13 | Globus Medical, Inc. | Surgical tool system and method |
US11298196B2 (en) | 2012-06-21 | 2022-04-12 | Globus Medical Inc. | Surgical robotic automation with tracking markers and controlled tool advancement |
US11399900B2 (en) | 2012-06-21 | 2022-08-02 | Globus Medical, Inc. | Robotic systems providing co-registration using natural fiducials and related methods |
US10842461B2 (en) | 2012-06-21 | 2020-11-24 | Globus Medical, Inc. | Systems and methods of checking registrations for surgical systems |
US10575906B2 (en) | 2012-09-26 | 2020-03-03 | Stryker Corporation | Navigation system and method for tracking objects using optical and non-optical sensors |
US11529198B2 (en) | 2012-09-26 | 2022-12-20 | Stryker Corporation | Optical and non-optical sensor tracking of objects for a robotic cutting system |
JP2015534480A (ja) * | 2012-09-26 | 2015-12-03 | ストライカー・コーポレイション | 光学式センサ及び非光学式センサを備えたナビゲーションシステム |
JP2018198931A (ja) * | 2012-09-26 | 2018-12-20 | ストライカー・コーポレイション | 光学式センサ及び非光学式センサを備えたナビゲーションシステム |
JP7397129B2 (ja) | 2012-12-21 | 2023-12-12 | マコ サージカル コーポレーション | 手術道具の触覚制御のためのシステム及び方法 |
JP7091419B2 (ja) | 2012-12-21 | 2022-06-27 | マコ サージカル コーポレーション | 手術道具の触覚制御のためのシステム及び方法 |
JP2021013757A (ja) * | 2012-12-21 | 2021-02-12 | マコ サージカル コーポレーション | 手術道具の触覚制御のためのシステム及び方法 |
JP2022118111A (ja) * | 2012-12-21 | 2022-08-12 | マコ サージカル コーポレーション | 手術道具の触覚制御のためのシステム及び方法 |
US10595880B2 (en) | 2012-12-21 | 2020-03-24 | Mako Surgical Corp. | Systems and methods for haptic control of a surgical tool |
US11259816B2 (en) | 2012-12-21 | 2022-03-01 | Mako Surgical Corp. | Systems and methods for haptic control of a surgical tool |
JP2019058703A (ja) * | 2012-12-21 | 2019-04-18 | マコ サージカル コーポレーション | 手術道具の触覚制御のためのシステム及び方法 |
JP2016505328A (ja) * | 2012-12-21 | 2016-02-25 | マコ サージカル コーポレーション | 手術道具の触覚制御のためのシステム及び方法 |
US11857200B2 (en) | 2012-12-21 | 2024-01-02 | Mako Surgical Corp. | Automated alignment of a surgical tool |
US11857201B2 (en) | 2012-12-21 | 2024-01-02 | Mako Surgical Corp. | Surgical system with automated alignment |
US11622800B2 (en) | 2013-01-16 | 2023-04-11 | Mako Surgical Corp. | Bone plate for attaching to an anatomic structure |
JP2016507295A (ja) * | 2013-01-16 | 2016-03-10 | ストライカー・コーポレイション | 見通し線エラーを示し、かつ低減させるためのナビゲーションシステムおよび方法 |
US10932837B2 (en) | 2013-01-16 | 2021-03-02 | Mako Surgical Corp. | Tracking device using a bone plate for attaching to a patient's anatomy |
US11369438B2 (en) | 2013-01-16 | 2022-06-28 | Stryker Corporation | Navigation systems and methods for indicating and reducing line-of-sight errors |
US10531925B2 (en) | 2013-01-16 | 2020-01-14 | Stryker Corporation | Navigation systems and methods for indicating and reducing line-of-sight errors |
JP2016512084A (ja) * | 2013-03-13 | 2016-04-25 | ストライカー・コーポレイション | 仮想制約境界を確立するシステム及び方法 |
KR102060390B1 (ko) | 2013-03-13 | 2019-12-30 | 스트리커 코포레이션 | 가상 구속 경계들을 확립하기 위한 시스템 |
US11896363B2 (en) | 2013-03-15 | 2024-02-13 | Globus Medical Inc. | Surgical robot platform |
US10405931B2 (en) | 2013-09-24 | 2019-09-10 | Sony Olympus Medical Solutions Inc. | Medical robot arm apparatus, medical robot arm control system, medical robot arm control method, and program |
US11129682B2 (en) | 2013-09-24 | 2021-09-28 | Sony Olympus Medical Solutions Inc. | Medical robot arm apparatus, medical robot arm control system, medical robot arm control method, and program |
US11583348B2 (en) | 2013-09-24 | 2023-02-21 | Sony Olympus Medical Solutions Inc. | Medical robot arm apparatus, medical robot arm control system, medical robot arm control method, and program |
JPWO2015046081A1 (ja) * | 2013-09-24 | 2017-03-09 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用ロボットアーム装置、医療用ロボットアーム制御システム、医療用ロボットアーム制御方法及びプログラム |
US9539059B2 (en) | 2013-09-24 | 2017-01-10 | Sony Olympus Medical Solutions Inc. | Medical robot arm apparatus, medical robot arm control system, medical robot arm control method, and program |
WO2015046081A1 (ja) * | 2013-09-24 | 2015-04-02 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用ロボットアーム装置、医療用ロボットアーム制御システム、医療用ロボットアーム制御方法及びプログラム |
KR102484188B1 (ko) | 2013-09-30 | 2023-01-04 | 스트리커 코포레이션 | 수술 절차 동안 환자의 아나토미를 조작하기 위한 로봇 시스템을 제어하는 시스템 및 방법 |
US10390737B2 (en) | 2013-09-30 | 2019-08-27 | Stryker Corporation | System and method of controlling a robotic system for manipulating anatomy of a patient during a surgical procedure |
KR20220028136A (ko) * | 2013-09-30 | 2022-03-08 | 스트리커 코포레이션 | 수술 절차 동안 환자의 아나토미를 조작하기 위한 로봇 시스템을 제어하는 시스템 및 방법 |
US11406284B2 (en) | 2013-09-30 | 2022-08-09 | Stryker Corporation | System and method of controlling a robotic system for manipulating anatomy of a patient during a surgical procedure |
JP2021121329A (ja) * | 2013-09-30 | 2021-08-26 | ストライカー・コーポレイション | 外科手技の際に患者の解剖学的構造を操作するためのロボットシステムを制御するシステム及び方法 |
KR102626744B1 (ko) | 2013-09-30 | 2024-01-18 | 스트리커 코포레이션 | 사지 홀더에 의해 사지가 지지되는 범위를 평가하는 수술 시스템 및 방법 |
JP2016538006A (ja) * | 2013-09-30 | 2016-12-08 | ストライカー・コーポレイション | 外科手技の際に患者の解剖学的構造を操作するためのロボットシステムを制御するシステム及び方法 |
JP2019115668A (ja) * | 2013-09-30 | 2019-07-18 | ストライカー・コーポレイション | 外科手技の際に患者の解剖学的構造を操作するためのロボットシステムを制御するシステム及び方法 |
KR20230007564A (ko) * | 2013-09-30 | 2023-01-12 | 스트리커 코포레이션 | 사지 홀더에 의해 사지가 지지되는 범위를 평가하는 수술 시스템 및 방법 |
JP7200291B2 (ja) | 2013-09-30 | 2023-01-06 | ストライカー・コーポレイション | 外科手技の際に患者の解剖学的構造を操作するためのロボットシステムを制御するシステム及び方法 |
US11666400B2 (en) | 2014-03-17 | 2023-06-06 | Intuitive Surgical Operations, Inc. | Automated structure with pre-established arm positions in a teleoperated medical system |
JP2017515522A (ja) * | 2014-03-17 | 2017-06-15 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 遠隔操作医療システムのための誘導セットアップ |
US10932873B2 (en) | 2014-03-17 | 2021-03-02 | Intuitive Surgical Operations, Inc. | Automated structure with pre-established arm positions in a teleoperated medical system |
US11154374B2 (en) | 2014-03-17 | 2021-10-26 | Intuitive Surgical Operations, Inc. | Guided setup for teleoperated medical device |
US10500004B2 (en) | 2014-03-17 | 2019-12-10 | Intuitive Surgical Operations, Inc. | Guided setup for teleoperated medical device |
JP2022123109A (ja) * | 2014-09-23 | 2022-08-23 | シンク サージカル, インコーポレイテッド | 複数平面の可変形状のジグザグ切断の関節接合ドリルシステム |
US11534250B2 (en) | 2014-09-30 | 2022-12-27 | Auris Health, Inc. | Configurable robotic surgical system with virtual rail and flexible endoscope |
JP7146837B2 (ja) | 2014-09-30 | 2022-10-04 | オーリス ヘルス インコーポレイテッド | 仮軌道および可撓性内視鏡を有する構成可能なロボット手術システム |
JP2020116421A (ja) * | 2014-09-30 | 2020-08-06 | オーリス ヘルス インコーポレイテッド | 仮軌道および可撓性内視鏡を有する構成可能なロボット手術システム |
JP2018538019A (ja) * | 2015-10-14 | 2018-12-27 | サージヴィジオ | 医療画像に対してツールをナビゲートする蛍光ナビゲーションシステム |
US11253322B2 (en) | 2015-10-14 | 2022-02-22 | Ecential Robotics | Fluoro-navigation system for navigating a tool relative to a medical image |
JP2019500082A (ja) * | 2015-11-27 | 2019-01-10 | キュレクソ インコーポレイテッドCurexo, Inc. | 整形外科手術用マーカーの位置確認システム及びその確認方法 |
US11202685B2 (en) | 2015-11-27 | 2021-12-21 | Curexo, Inc. | System for identifying position of marker for orthopedic surgery and method for identifying same |
JP2020114422A (ja) * | 2015-11-27 | 2020-07-30 | キュレクソ インコーポレイテッドCurexo, Inc. | 整形外科手術用マーカーの位置確認システム及びその確認方法 |
KR20170062048A (ko) * | 2015-11-27 | 2017-06-07 | 큐렉소 주식회사 | 정형외과 수술용 마커 위치 확인 시스템 및 그 확인 방법 |
KR102430277B1 (ko) * | 2015-11-27 | 2022-08-09 | 큐렉소 주식회사 | 정형외과 수술용 마커 위치 확인 시스템 및 그 확인 방법 |
JP2022002711A (ja) * | 2015-12-31 | 2022-01-11 | ストライカー・コーポレイション | 仮想オブジェクトにより規定される患者の標的部位に対して外科手術を行うシステムおよび方法 |
US11883217B2 (en) | 2016-02-03 | 2024-01-30 | Globus Medical, Inc. | Portable medical imaging system and method |
JP2017205495A (ja) * | 2016-04-11 | 2017-11-24 | グローバス メディカル インコーポレイティッド | 外科用ツールシステム及び方法 |
JP2019514705A (ja) * | 2016-04-24 | 2019-06-06 | カスタニエンバオム ゲーエムベーハーKastanienbaum Gmbh | ロボットの動作シーケンスの設定方法および設定装置 |
US11559358B2 (en) | 2016-05-26 | 2023-01-24 | Mako Surgical Corp. | Surgical assembly with kinematic connector |
US10537395B2 (en) | 2016-05-26 | 2020-01-21 | MAKO Surgical Group | Navigation tracker with kinematic connector assembly |
JP2019523686A (ja) * | 2016-05-27 | 2019-08-29 | マコー サージカル コーポレイション | 手術システム用の術前計画及び関連する術中見当合わせ |
US11779408B2 (en) | 2017-01-18 | 2023-10-10 | Globus Medical, Inc. | Robotic navigation of robotic surgical systems |
JP2018126498A (ja) * | 2017-01-18 | 2018-08-16 | ケービー メディカル エスアー | ロボット外科手術システムのロボットナビゲーション |
JP7233841B2 (ja) | 2017-01-18 | 2023-03-07 | ケービー メディカル エスアー | ロボット外科手術システムのロボットナビゲーション |
US11529195B2 (en) | 2017-01-18 | 2022-12-20 | Globus Medical Inc. | Robotic navigation of robotic surgical systems |
US11813030B2 (en) | 2017-03-16 | 2023-11-14 | Globus Medical, Inc. | Robotic navigation of robotic surgical systems |
WO2019058336A1 (en) * | 2017-09-23 | 2019-03-28 | Yazdian Seiedmuhammad | HANDLE FOR ROBOTIC SURGERY |
JP2020014840A (ja) * | 2018-06-29 | 2020-01-30 | グローバス メディカル インコーポレイティッド | 追跡マーカーを備えた手術用ロボットオートメーション |
US11298186B2 (en) | 2018-08-02 | 2022-04-12 | Point Robotics Medtech Inc. | Surgery assistive system and method for obtaining surface information thereof |
JP2020168359A (ja) * | 2019-04-03 | 2020-10-15 | キヤノンメディカルシステムズ株式会社 | 医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム |
JP7495242B2 (ja) | 2019-04-03 | 2024-06-04 | キヤノンメディカルシステムズ株式会社 | 医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム |
US11864857B2 (en) | 2019-09-27 | 2024-01-09 | Globus Medical, Inc. | Surgical robot with passive end effector |
US11426178B2 (en) | 2019-09-27 | 2022-08-30 | Globus Medical Inc. | Systems and methods for navigating a pin guide driver |
JP7263300B2 (ja) | 2019-09-27 | 2023-04-24 | グローバス メディカル インコーポレイティッド | 受動的なエンドエフェクタを有する外科手術ロボット |
JP2021053395A (ja) * | 2019-09-27 | 2021-04-08 | グローバス メディカル インコーポレイティッド | 受動的なエンドエフェクタを有する外科手術ロボット |
JP2021087665A (ja) * | 2019-12-05 | 2021-06-10 | 炳碩生醫股▲フン▼有限公司 | 手術支援システムおよびその表面情報を取得する方法 |
JP7497440B2 (ja) | 2019-12-31 | 2024-06-10 | オーリス ヘルス インコーポレイテッド | 経皮的アクセスのための位置合わせインターフェース |
JP2023512006A (ja) * | 2020-01-31 | 2023-03-23 | キュレクソ インコーポレイテッド | 関節置換ロボット手術情報の提供装置及び提供方法 |
Also Published As
Publication number | Publication date |
---|---|
CA2598627C (en) | 2013-11-26 |
EP3470040B1 (en) | 2022-03-16 |
EP1871267B1 (en) | 2018-09-12 |
EP1871267A1 (en) | 2008-01-02 |
WO2006091494A1 (en) | 2006-08-31 |
CA2826925C (en) | 2017-01-24 |
CA2826925A1 (en) | 2006-08-31 |
EP3470040A1 (en) | 2019-04-17 |
CN101160104A (zh) | 2008-04-09 |
CN101160104B (zh) | 2012-07-04 |
CA2598627A1 (en) | 2006-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11426245B2 (en) | Surgical guidance system and method with acoustic feedback | |
EP1871267B1 (en) | Haptic guidance system | |
US11844577B2 (en) | System and method for verifying calibration of a surgical system | |
US8095200B2 (en) | System and method for using a haptic device as an input device | |
CA2532469C (en) | Guidance system and method for surgical procedures with improved feedback | |
US20230329813A1 (en) | Systems And Methods For Guided Placement Of A Robotic Manipulator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090512 |