CN111031954A - 用于医疗程序中的感觉增强系统和方法 - Google Patents

用于医疗程序中的感觉增强系统和方法 Download PDF

Info

Publication number
CN111031954A
CN111031954A CN201880050889.0A CN201880050889A CN111031954A CN 111031954 A CN111031954 A CN 111031954A CN 201880050889 A CN201880050889 A CN 201880050889A CN 111031954 A CN111031954 A CN 111031954A
Authority
CN
China
Prior art keywords
femur
surface map
user
head
tibia
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880050889.0A
Other languages
English (en)
Other versions
CN111031954B (zh
Inventor
M·W·赖安
A·P·哈特曼
D·J·梅曼
N·范德沃特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vision Medical Systems
Original Assignee
Vision Medical Systems
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vision Medical Systems filed Critical Vision Medical Systems
Priority to CN202311416231.6A priority Critical patent/CN117752414A/zh
Publication of CN111031954A publication Critical patent/CN111031954A/zh
Application granted granted Critical
Publication of CN111031954B publication Critical patent/CN111031954B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/00048Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/0004Operational features of endoscopes provided with input arrangements for the user for electronic operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/317Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for bones or joints, e.g. osteoscopes, arthroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • A61B17/154Guides therefor for preparing bone for knee prosthesis
    • A61B17/157Cutting tibia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1662Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
    • A61B17/1664Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the hip
    • A61B17/1666Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the hip for the acetabulum
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1662Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
    • A61B17/1671Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the spine
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/02Surgical instruments, devices or methods, e.g. tourniquets for holding wounds open; Tractors
    • A61B17/025Joint distractors
    • A61B2017/0268Joint distractors for the knee
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • A61B2034/207Divots for calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/32Joints for the hip
    • A61F2/34Acetabular cups
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/38Joints for elbows or knees
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/38Joints for elbows or knees
    • A61F2/3886Joints for elbows or knees for stabilising knees against anterior or lateral dislocations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4603Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof
    • A61F2/4609Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof of acetabular cups
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4684Trial or dummy prostheses
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/32Joints for the hip
    • A61F2/34Acetabular cups
    • A61F2002/3401Acetabular cups with radial apertures, e.g. radial bores for receiving fixation screws
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/32Joints for the hip
    • A61F2/34Acetabular cups
    • A61F2002/3401Acetabular cups with radial apertures, e.g. radial bores for receiving fixation screws
    • A61F2002/3403Polar aperture

Abstract

本发明提供一种由用户(106)在外科手术程序期间佩戴的混合现实外科手术导航系统(10),其包括:显示装置(104),所述显示装置由用户(106)在外科手术程序期间佩戴,所述显示装置包括处理器单元(102)、显示生成器(204)、传感器套件(210),所述传感器套件具有至少一个相机(206)或深度传感器,其中所述处理单元(102)用从所述传感器套件(210)接收的数据创建解剖对象(4204)的暴露表面(5806)的参考表面图(5804);所述处理单元(102)针对所述参考表面图(5804)建立相对于所述传感器套件(210)的参考系(5810);所述参考系(5810)的朝向通过创建所述解剖对象(4204)的其它解剖学特征(5824)的另外的表面图(5834)来建立;所述处理单元(102)通过以下操作跟踪所述解剖对象(4204)相对于所述系统(10)的姿态:创建所述暴露表面(5806)的移位表面图(5814)并且使所述移位表面图(5814)和参考系(5810)旋转和平移,以实现与所述参考表面图(5804)的最佳拟合。

Description

用于医疗程序中的感觉增强系统和方法
申请日权益的要求
本申请是于2017年8月11日提交的美国申请第15/674,749号以及于2017年8月11日提交的专利合作条约申请第PCT/US2017/046438号的部分继续申请,所述两个申请均要求于2016年8月16日提交的、题为“用于医疗程序中感觉增强的系统和方法(Systems andMethods of Sensory Augmentation in Medical Procedures)”的美国临时申请序列号60/375,483的优先权;出于所有目的,所有申请均通过引用整体并入。
技术领域
本发明涉及用于医疗程序期间的定位、本地化和态势感知的新型可视化和感觉增强装置、系统、方法和设备,所述医疗程序包含但不限于外科手术程序、诊断程序、治疗程序和麻醉程序。
背景技术
当前的医疗程序通常由外科医生或医学专业人员在除了所需工具之外具有很少辅助或没有辅助的情况下执行,以影响患者的变化。例如,矫形外科医生可以具有一些测量工具(例如,标尺或类似工具)和切割工具(例如,锯或钻),但是不辅助外科医生进行视觉、听觉和触觉输入。换句话说,外科医生除了他或她正在操作的东西之外什么也看不到,除了来自手术室中的其它参与者的正常沟通之外什么也听不到,并且除了来自程序中所关注的抓握工具或其它物品的正常反馈之外什么也感觉不到。可替代地,利用大型控制台型导航或机器人系统,其中显示器和相机定位在远离外科医生的无菌区域之外。这些需要外科医生将他或她的目光在手术部位与二维显示器之间反复移动。同样,当帘、人员或仪器阻碍了相机查看无菌区域中的标记,并且相机的有利位置不能让其自身在伤口内成像时,相机的远程定位会引起视线问题。通常使用带有标记的触针执行解剖配准,从而以标志对相机可见的这种方式进行探测。
发明内容
本发明提供了将一个或多个程序所需的反馈以视觉方式投射到用户的视野中,所述投射不需要使用户的头部不自然地运动或转动来查看外部屏幕。增强的显示或虚拟显示对用户表现为用户的视觉感知自然延伸或加强。进一步地,定位在用户的头组件中的传感器和相机具有与用户相同的有利位置,这最小化了一系列与外部相机相关联的视线模糊问题。与当前的触针点云方法相比,用本发明对解剖表面和特征进行3D映射并将其与来自术前扫描的模型相匹配更快,并且代表在外科手术期间以对解剖体进行配准的更准确的方式。
本发明包括新颖的感觉增强装置或设备,所述感觉增强装置或设备通常由对用户的视觉、听觉或触觉中的至少一个的增强组成,所述增强帮助进行医疗程序。可以以增强现实的形式提供用户的视野上的实时视觉覆盖形式的视觉辅助或者以虚拟现实的形式提供作为视觉场景的替代的供视觉辅助。可以提供简单的哔哔声和音调或更复杂的声音(如语音和指令等)形式的听觉辅助。可以提供简单的警告触觉反馈或更复杂的触觉生成形式的触觉辅助,目的是引导用户。在优选的实施例中,视觉(增强或虚拟)辅助将由音频反馈或触觉反馈或音频和触觉反馈两者来补充。
本发明提供混合现实外科手术导航系统,所述混合现实外科手术导航系统包括:头戴式显示装置(例如,头戴设备等),所述头戴式显示装置由用户(例如,外科医生)在外科手术期间佩戴,所述头戴式显示装置包括处理器单元、显示生成器、传感器套件,所述传感器套件具有至少一个跟踪相机;以及至少一个视觉标记,所述至少一个视觉标记可由相机跟踪,所述至少一个视觉标记固定连接到外科手术工具上;其中所述处理单元用从所述传感器套件接收的数据映射所关注的解剖对象的部分暴露表面的三维表面;所述处理单元通过将所述三维表面映射到所述解剖对象的三维模型来为所述解剖对象建立参考系;所述处理单元用从所述传感器套件接收的数据跟踪所述外科手术工具的六自由度姿态(包含定位和朝向);所述处理单元与所述显示器通信以提供混合现实用户界面,所述混合现实用户界面包括所述外科手术工具的期望特征和所述解剖对象的期望特征在所述用户的视野中的立体虚拟图像。
本发明进一步提供了使用混合现实外科手术导航系统进行医疗程序的方法,所述方法包括:(a)提供混合现实外科手术导航系统,所述混合现实外科手术导航系统包括(i)头戴式显示装置,所述头戴式显示装置包括处理器单元、显示器、传感器套件,所述传感器套件具有至少一个跟踪相机;以及(ii)至少一个视觉标记,所述至少一个视觉标记可由所述相机跟踪;(b)将所述显示装置附接到用户的头部;(c)提供具有所述标记的外科手术工具;(d)用所述传感器套件扫描所关注的解剖对象,以获得所述解剖对象的期望特征的三维表面的数据;(e)将所述三维表面的所述数据传输到所述处理器单元,用于对所述解剖对象的所述期望特征的虚拟三维模型进行配准;(f)用所述传感器套件跟踪具有六自由度姿态的所述外科手术工具,以获得用于传输到所述处理器单元的数据;以及(g)显示混合现实用户界面,所述混合现实用户界面包括所述外科手术工具的所述特征和所述解剖对象的所述特征在所述用户的视野中的立体虚拟图像。
本发明进一步提供了用于外科手术导航系统的混合现实用户界面,所述外科手术导航系统包括:由混合现实外科手术导航系统提供的外科手术工具的期望特征和所关注的解剖对象的期望特征在用户的视野中的立体虚拟图像,所述混合现实外科手术导航系统包括:(i)头戴式显示装置,所述头戴式显示装置包括处理器单元、显示器、传感器套件,所述传感器套件具有至少一个跟踪相机;以及(ii)至少一个视觉标记,所述至少一个视觉标记可由所述相机跟踪;其中混合现实用户界面通过以下过程获得:(a)将所述头戴式显示装置附接到用户的头部;(b)提供具有所述标记的外科手术工具;(c)用所述传感器套件扫描期望的解剖对象,以获得所述解剖对象的部分暴露表面的三维表面的数据;(d)将所述三维表面的所述数据传输到所述处理器单元,用于对所述解剖对象的所述特征的虚拟三维模型进行配准;(e)用所述传感器套件跟踪具有六自由度姿态的所述外科手术工具,以获得用于传输到所述处理器单元的数据;以及(f)显示混合现实用户界面,所述混合现实用户界面包括所述外科手术工具的所述特征和所述解剖对象的所述特征在所述用户的视野中的立体虚拟图像。
附图说明
本发明的一些实施例被展示为实例并且不受附图的限制,在附图中,相似的附图标记可以指示类似的元件,并且在附图中:
图1是根据本发明的原理的增强系统的图解性描绘;
图2A示出了图1的系统的显示装置的图解性描绘的前透视图;
图2B示出了图2A的显示装置的后透视图;
图3是图1的系统的显示装置的另一个实施例的图解性描绘;
图4是图1的系统的电气硬件配置的示意图;
图5是图1的系统的标记和相机的图解性描绘;
图6是在髋关节置换程序中由图1的系统提供的髋臼壳定位期间的混合现实用户界面图像(“MXUI”)的图解性描绘,所述MXUI示出了虚拟骨盆;
图7是在髋关节置换程序中由图1的系统提供的髋臼壳定位期间的MXUI的图解性描绘,所述MXUI示出了虚拟骨盆和虚拟髋臼撞击器;
图8是示出了图1的系统在医疗程序期间的操作过程的流程图;
图9是示出了根据本发明的使用图1的原理的系统来执行髋关节置换程序的方法的流程图;
图10是示出了根据本发明的使用图1的原理的系统来执行一般医疗程序的方法的流程图;
图11示出了关节撞击器的图解性描绘的透视图,所述髋关节撞击器包含髋臼壳和光学标记;
图12示出了图11中示出的髋关节撞击器组合件的分解视图;
图13A示出了解剖标记组合件的图解性描绘的透视图,所述解剖标记组合件任选地包含在图1的系统中;
图13B示出了图13A中示出的解剖标记的夹具组合件的透视图;
图14示出了图13A中示出的解剖标记组合件的分解视图;
图15示出了校准组合件的图解性描绘的透视图,所述校准组合件任选地包含在图1的系统中;
图16示出了图15中示出的校准组合件的分解前视图;
图17示出了图16中示出的校准组合件的分解后视图;
图18示出了由图1的系统提供的各个校准步骤期间的MXUI的图解性描绘;
图19是在髋关节置换程序由图1的系统提供的骨盆配准步骤期间的MXUI的图解性描绘;
图20是在髋关节置换程序中由图1的系统提供的将销插入骨盆期间的MXUI的图解性描绘;
图21是在髋关节置换程序中由图1的系统提供的骨盆配准步骤期间的MXUI的图解性描绘;
图22是在髋关节置换程序由图1的系统提供的股骨配准步骤期间的MXUI的图解性描绘;
图23是在髋关节置换手中由图1的系统提供的切除股骨颈期间程序MXUI的图解性描绘;
图24是在髋关节置换程序中由图1的系统提供的髋臼壳定位期间的MXUI的图解性描绘;
图25是在髋关节置换程序中由图1的系统提供的髋臼壳定位期间的MXUI的图解性描绘;
图26是在髋关节置换程序中由图1的系统提供的股骨定位期间的MXUI的图解性描绘;
图27是在髋关节置换手术期间由图1的系统提供的使用C型臂的MXUI的图解性描绘;
图28是示出了根据本发明的原理如何可以结合外科手术中的C型臂使用图1的系统的流程图;
图29示出了设备标识和跟踪标签的图解性描绘的前视图,所述设备标识和跟踪标签任选地包含在图1的系统中;
图30是根据本发明的原理的使用图1的系统对医疗设备进行配准、共享和跟踪的方法的流程图;
图31是在脊柱融合程序中由图1的系统提供的用超声探针对脊柱进行配准期间的MXUI的图解性描绘;
图32是在开放的脊柱融合程序中由图1的系统提供的用触针对脊柱进行配准期间的MXUI的图解性描绘;
图33是图32的手术暴露部分的特写前视图;
图34是在脊柱融合程序中由图1的系统提供的椎弓根钻孔期间的MXUI的图解性描绘;
图35是图34的虚拟钻和目标部分的近视图;
图36A示出了用户佩戴图1的系统的AR头戴设备的图解性描绘的前透视图;
图36B示出了用户佩戴图1的系统的具有防护面罩的AR头戴设备的图解性描绘的后透视图;
图37A是用户佩戴图1的系统的具有外科手术头盔的AR头戴设备的图解性描绘的前透视图;
图37B是图37A中示出的物品的后透视图;
图38A是图1的系统的各个组件的图解性描绘的前透视图;
图38B是图37A中示出的外科手术头盔的后透视图;
图39示出了图36A中示出的AR头戴设备的前透视图;
图40是图37A中示出的外科手术头盔的分解视图;
图41A是图40中示出的机电联接板的底部透视图;
图41B是图40中示出的机电联接板的顶部透视图;
图42是图37A中示出的系统的用于膝关节置换程序的组件的前透视图;
图43是在膝关节置换程序中由图1的系统提供的远端股骨配准期间的MXUI的图解性描绘;
图44是在膝关节置换程序中由图1的系统提供的切除平面计划期间的MXUI的图解性描绘;
图45是膝关节置换程序中由图1的系统提供的将销放置用于对切割块进行定位期间的MXUI的图解性描绘;
图46是在膝关节置换程序中由图1的系统提供的胫骨切除期间的MXUI的图解性描绘;
图47是在膝关节置换程序期间使用的膝关节平衡装置的图解性描绘的前透视图,所述膝关节平衡装置任选地包含在图1的系统中;
图48是在膝关节置换程序中由图1的系统提供的平衡评估期间的MXUI的图解性描绘;并且
图49是在图47中示出的膝关节平衡装置的前透视图。
图50A是髋臼和近端股骨上的处于参考位置的暴露表面的图解性描绘。
图50B是髋臼和近端股骨上的处于移位位置的暴露表面的图解性描绘。
图51是髋关节和腿关节的图解性描绘,其示出了用于计算股骨倒转的参考轴和参考平面。
图52是具有植入组件的髋关节的图解性描绘。
图53是髋关节撞击器和壳的图解性描绘,其示出了映射在撞击器上的表面。
图54是示出了根据本发明的原理的可以如何使用图1的系统分析髋关节运动学的流程图。
图55是示出了对膝关节置换程序进行导航的示例性方法的流程图。
图56是具有单髁植入物的膝关节的图解性描绘。
图57是具有单髁植入物的胫骨的图解性描绘。
图58A是膝关节的图解性描绘,其示出了用于在参考位置中进行表面映射的示例性区域。
图58B是膝关节的图解性描绘,其示出了用于在移位位置中进行表面映射的示例性区域。
图58C是膝关节的图解性描绘,其示出了用于表面映射的示例性区域。
图59是示出了对髋关节置换程序进行导航的示例性方法的流程图。
具体实施方式
本文所使用的术语仅用于描述特定实施例的目的,而不旨在限制本发明。如本文所使用的,术语“和/或”包含相关联的所列项中的一个或多个的任何和所有组合。如本文所使用的,单数形式“一个(a)”、“一种(an)”和“所述(the)”旨在包含复数形式以及单数形式,除非上下文另有明确指出。应进一步理解的是,当在本说明书中使用时,术语“包括(comprises和/或comprising)”指定所陈述的特征、步骤、操作、元件和/或组件和/或其组的存在。
除非另有定义,否则本文所使用的所有术语(包含技术术语和科学术语)均具有与本发明所属领域的普通技术人员通常理解的相同含义。应进一步理解的是,如在常用词典中限定的那些术语等术语应被解释为具有与其在相关领域和本公开的背景下的含义一致的含义,并且除非本文中明确地如此定义,否则将不会在理想化的或过度正式的意义上进行解释。
在描述本发明中,应理解的是,公开了许多技术和步骤。这些技术和步骤中的每一个技术和步骤具有单独的益处,并且每个技术和步骤还可以与其它所公开的技术和步骤中的一个或多个或者在一些情况下所有技术和步骤结合使用。因此,为了清楚起见,本描述将避免以不必要的方式重复单独步骤的每种可能的组合。尽管如此,应在理解此类组合完全处于本发明和权利要求书的范围内的情况下阅读本说明书和权利要求书。
本文讨论了用于提供数据以辅助医疗程序的新的感觉增强装置、设备和方法。在以下描述中,出于解释的目的,阐述了许多具体细节以提供对本发明的透彻理解。然而,对于本领域的普通技术人员来说明显的是,可以在没有具体细节的情况下实践本发明。
I.感觉增强系统
参考图1、2A-B和3,提供了本发明的感觉增强系统10,用于在医疗程序中使用。系统10包含一个或多个视觉标记(100,108,110);处理单元102;传感器套件210,所述传感器套件具有一个或多个跟踪相机206;以及显示装置104,所述显示装置具有显示生成器204,所述显示生成器在显示装置104上生成视觉显示,以供用户106查看。显示装置104附接到用户106,使得显示装置104可以增强其视觉输入。在一个优选的实施例中,显示装置104附接到用户106的头部。可替代地,在仍增强视觉场景的同时,显示装置104与用户106分开定位。在一个实施例中,标记(100,108和110)中的每一个标记是独特的并且彼此在视觉上不同,因此所述标记可以由一个或多个相机206单独跟踪。
参考图2A-2B,显示装置104的另一个示例性实施例包含具有光学器件202的遮光板壳体(visor housing)200,所述光学器件允许将显示生成器204的视频显示聚焦到用户106的眼部。传感器套件210附接到显示装置104或者被制造成显示装置的一部分。遮光板壳体200包含附接机构208,所述附接机构允许附接到用户106的头部或面部,使得显示装置104到用户106的视觉路径的对准一致并且可重复。
参考图3,显示装置104的另一个示例性实施例包含清晰面罩300,所述清晰面罩允许从显示生成器302投射到罩300,所述面罩覆盖处于用户106的眼部的视觉路径内的数据和图像。传感器套件306附接到显示装置104或者被制造成显示装置的一部分。显示装置104进一步包含附接机构304。传感器套件306和附接机构304充当与上述传感器套件210和附接机构208相同的功能。
参考图4,其示出了系统10的电子硬件配置,传感器套件(210,306)不仅包含一个或多个跟踪相机402、404、406(与206相同),其可以任选地包含惯性测量单元(“IMU”)408;无线电410,所述无线电用于与其它传感器或控制单元通信;麦克风416,所述麦克风用于语音激活不同的显示模式,包含但不限于移除所有所显示的物品,以获得清晰的视野;一个多个扬声器418,所述一个多个扬声器用于可听警报和其它目的;以及触觉反馈420,所述触觉反馈呈振动电机、压电蜂鸣器或其它实施例形式。IMU 408为不基于视觉的对象提供添加的朝向和定位数据。IMU 408可以用于但不限于根据相机跟踪数据和IMU 408的数据生成同时定位和映射(“SLAM”)数据,以确定辅助对所关注的对象的表面图进行定位并生成所关注的对象的表面图的非标记特定的空间特征。此外,一个或多个传感器套件(400,210和306)包含外部数据414,所述外部数据如由有线存储器、无线电存储器或所存储的存储器中继。外部数据414可以任选地处于荧光透视成像、计算机轴向断层(“CAT或CT”)扫描、正电子发射断层(“PET”)扫描或磁共振成像(“MRI”)数据等形式。此类数据可以与由传感器套件(400,210和306)收集的其它数据组合,以创建增强图像。
在系统10的操作期间,显示生成器412(与204和302相同)和处理单元401(与102相同)与传感器套件(210,306)的上述组件进行电子通信。处理单元401是控制显示管理和算法执行的中央处理单元(“CPU”)。参考图4,系统10可以任选地包含一个或多个远程传感器套件422。这些远程传感器套件物理上定位成远离显示装置104。这些远程传感器套件422中的每一个远程传感器套件包含传感器套件(210,306)的上述组件中的一些或所有组件。所述远程传感器套件也可以任选地包含单独处理单元和远程处理单元。远程传感器套件422将数据贡献给外部数据414,所述外部数据在需要时可以由处理单元401进一步处理。在另一个实施例中,系统10使用一个或多个远程套件422,以跟踪定位在能视域中的标记和附接到用户106佩戴的显示单元104的任何一个或多个标记,以便定位能视域中的关于用户106的对象。
在一个示例性实施例中,系统10使用一个或多个传感器套件(422,210,306)创建表示工作空间中的对象的三维点数据云。此数据可以用于创建或匹配到已建模对象,用于在以后的时间进行后续跟踪、可视化或回放。
此外,系统10可以任选地使用本领域所公开的装置覆盖图像和掩模,从而使视野中的对象模糊,以辅助突出所关注的区域和物品,所述对象包含但不限于曝露周围的非程序的对象的牵开器或软组织。在一个实施例中,可以在增强现实(“AR”)模式下用覆盖物投射外部图像。在另一个实施例中,可以忽略外部图像,并且只有计算机生成的图形可以用于在虚拟现实(“VR”)模式下向用户106显示数据。如果显示装置104或其部分被制成不透明的以阻挡外部视觉数据,或者如果使用一些其它方法向用户106强调应该集中在图像上而非外部图像上,则支持VR模式。
显示装置104的其它替代性实施例将包含但不限于将全息或伪全息显示投射到用户106的能视域。此外,显示装置可以任选地提供本领域所公开的眼部跟踪装置,所述眼部跟踪装置允许确定关于用户106的视觉视野的最佳显示图像。
系统10可以任选地使用算法在视野中的物品之间进行区分,以标识是什么构成了所关注的对象与对手头的任务不重要的对象。所述标识可以包含但不限于标识髋臼上用于与术前扫描进行比较和合并的骨骼界标,尽管软组织和工具在同一能视域中是可见的。
参考图5,传感器套件(400,422,210和306)的一个或多个相机500、506和一个或多个视觉标记502、504用于视觉跟踪独特的对象(例如,手术工具、解剖对象内期望的位置等),并确定关于用户106的姿态和位置。在一个实施例中,一个或多个标记中的每一个标记是独特的并且彼此在视觉上不同。独立对象识别和机器视觉技术可以用于标记识别。可替代地,本发明还提供了使用IMU 408对一个或多个所关注的对象进行辅助跟踪,所述一个或多个所关注的对象包含但不限于标记502、504。请注意,一个或多个相机500、506可以离用户106远程定位,并且提供另外的数据,用于跟踪和定位。
最佳过滤算法任选地用于组合来自所有可用来源的数据,从而提供能视域中的物品的最准确的位置和朝向数据。此过滤方案将能够适应以下事件,所述事件包含但不限于一个或多个相机的一个或多个视野的阻塞、所关注的期望区域的血液、组织或其它器官的临时阻塞、使一个或多个相机的一个或多个视野移动远离所关注的区域的头部移动或其它相机移动、数据丢失以及电池/电源耗尽或设备的其它损失。
参考图36A-B、37A-B、38A-B和39-41A-B,显示装置104的另一个示例性实施例是AR头戴设备3600。AR头戴设备3600用于各种无菌外科手术程序(例如,脊柱融合、髋关节和膝关节成形术等)。通过转动拇指轮3606调节头部条带3604,以将AR头戴设备3600夹在外科医生3602(即,用户106)的头部。通过附接到维可牢(Velcro)条带3610将透明防护面罩3608任选地附接到装置3600。可替代地,可以通过粘合剂、磁、钩或其它本领域所公开的附接装置进行附接。存在联接特征3612,用于将外科手术头盔3700通过机械方式和电方式两者附接到AR头戴设备3600。外科手术头盔3700任选地连接到为外科医生3602提供全身覆盖的外科手术罩(未示出)。全身覆盖可用于某些外科手术程序,如髋关节和膝关节成形术等。如果要将外科手术头盔3700附接到外科手术罩上,则风扇将空气吸入穿过外科手术罩进入空气入口3702,并且在外科手术罩和头盔下循环,以使外科医生3602凉爽并防止光学组件起雾。下颌件3704将头盔3700(以及(如果适用的话)所附接的外科手术罩)与外科医生3602的面部隔开。外科手术头盔3700相对于AR头戴设备3600的定位被设计成允许外科医生3602和所有的相机以及传感器不受阻碍地查看外科手术部位。外科手术头盔3700包含用于附接到外科手术罩并且与外科手术罩界接的必要特征。软线3706将AR头戴设备3600连接到髋部模块3708,所述髋部模块可以佩戴在外科医生3602的皮带上。将可更换的电池3800插入髋部模块3708。
参考图39,AR头戴设备3600包含显示区段3900,所述显示区段具有用于视觉增强的一对透视光学显示器3902;以及两个跟踪相机3904,所述两个跟踪相机用于执行跟踪和立体成像功能,所述跟踪和立体成像功能包含二维和三维数字变焦功能。深度传感器3906和结构化光投影仪3908包含在显示区段3900中。优选的是,深度传感器3906和投影仪3908定位在显示区段3900的中间。外科手术头灯3909任选地安装到显示区段3900并且可以电连接到AR头戴设备3600,以允许AR头戴设备3600的软件(包含通过语音命令)控制其亮度。此特征可以用于例如当处于混合现实的模式时调暗或关闭外科手术头灯,以允许在明亮的背景下使虚拟内容更好地可视化。该特征还可以调整以优化光学跟踪,所述光学跟踪有时会被目标的高对比度照明或低环境照明削弱。在另一个示例性实施例中,出于相同的原因,可以通过AR头戴设备3600的软件无线控制手术室灯。
参考图39-40,AR头戴设备3600的后部区段3910可以任选地含有电路系统的热产生组件和其它组件,如微处理器和内部电池。AR头戴设备3600的拱型桥接区段3912和头部条带3604将后部区段3910机械连接到显示区段3900。桥接区段3912的一部分是柔性的以适应大小调整。桥接区段3912可以包含布线电路板或柔性电路板,以提供显示区段3900与后部区段3910之间的电连接。桥接区段3912包含联接特征3612,所述联接特征是具有多个定位孔洞3914和孔口3918的铁磁板,所述孔口提供进入用于给外科手术头盔3700的风扇供电的两个电触点3916的途径。在替代性实施例中,联接特征3612可以是其它本领域所公开的装置,如维可牢、闩锁、螺纹紧固件等。联接特征3612可以任选地包含震动隔离座,以最小化从外科手术头盔3700的风扇到AR头戴设备3600的机械噪声的传输,所述机械噪声可能不利于跟踪性能。风扇4004可以是软件控制的,以允许其减速或关闭来最小化机械噪声的产生。风扇还可以由外科医生3602使用语音命令来控制。软线3706将后部区段3910连接到髋部模块3708。
参考图40,外科手术头盔3700包含空心壳4002,风扇4004将通过壳中的各个通风口排出的空气吸入所述空心壳中,从而为外科医生提供冷风。帽沿通风口4006在手术罩的遮光板上提供气流,并且后部通风口4008向后部(包含向AR头戴设备3600的后部区段3910)提供冷风。
参考图41A-B,联接板3802包含多个凸台4102,用于使用孔3914定位在AR头戴设备3600中。联接板3802也包含弹簧加载的电触点4104,所述弹簧加载的电触点与AR头戴设备3600的电触点3916连接以向风扇4004供电。联接板3802进一步包含磁体4106,所述磁体提供联接板3802与联接特征3612之间的机械保持力。
在一个示例性实施例中,AR头戴设备3600被任选地用作报告装置投诉或设计特征请求的系统。用户界面可以具有菜单选项或语音命令,以在问题发生时启动报告。这样会激活语音和视频相机的记录,从而允许用户106在问题发生时捕获和叙述3D形式的投诉。用户106通过语音或选择选项来终止投诉。投诉记录被压缩并通过互联网以无线方式传输到公司,为投诉处理人员提供良好的数据,从而能够“重现”第一手情况,以进行更好的诊断。可以使用人工智能来解析和汇总投诉材料,以确立图案并执行统计分析。在程序期间,除了数据流是实时传输的之外,可以使用相同的顺序连接到现场技术支持。
II.术前程序
本发明可以用于术前任务和外科手术程序。例如,现在描述了包含可能的术前活动的可替代通用外科手术程序。首先,获得对患者的所关注的区域的扫描,如CT或MRI。如果可能,应以在外科手术期间接近定位的方式使患者定位。第二,执行对扫描数据的分割,以将其转换成所关注的物品的三维模型,所述三维模型包含但不限于:牙齿和骨骼结构、所关注的静脉和动脉、神经、腺体、肿瘤或肿块、植入物和皮肤表面。模型是分离的,使得以后可以独立地显示、标记或操纵模型。这些模型将被称为术前模型。第三,使用模型执行术前计划(任选地使用用于模型的可视化和操纵的VR)以标识物品,所述物品包含但不限于:解剖参考系、切除平面的目标、待切除的体积、切除的平面和水平、待使用的植入物的大小和最佳定位、进入靶组织的路径和轨迹、导丝、钻、销、螺钉或仪器的轨迹和深度。第四,在外科手术之前或外科手术时,将模型和术前计划数据上传到显示装置104的存储器中。此上传过程将通过无线电以无线方式最方便地执行。
第五,使患者为外科手术做准备并进行定位。在手术期间,以最大化皮肤表面的可视化的方式理想地覆盖手术部位,用于随后配准目的。这可以通过自由使用Ioban来实现。这对使用像Ioban等膜将是有益的,所述膜在被特定的LED或可见光发射器以宽照明的点状图案或投射图案瞄准时,以不同方式发出荧光或反射。这种膜也可以具有光学特征、标记或图案,所述光学特征、标记或图案允许头部件的光学相机进行容易识别。
第六,在患者已经为外科手术做好准备并且定位之后,系统10(例如,通过AR头戴设备3600)扫描目前的皮肤包络以确立其目前的轮廓,并创建可供用户106在显示装置104上看到的术前3D模型。优选的方法是在使网格图案或棋盘图案在红外(“IR”)波段投射,所述网格图案或棋盘图案允许根据计算出的已知图像的翘曲/倾斜/缩放确定皮肤包络。替代性方法是使附有标记的触针类型的对象沿暴露的皮肤前后移动,从而允许对触针的位置和朝向进行跟踪并且和随后产生皮肤包络。任选地,向用户106显示皮肤模型,所述用户然后概述已扫描的暴露皮肤的大体区域。计算术前皮肤模型的最佳位置和朝向,以匹配目前的皮肤表面。通过显示装置104以3D形式向用户106显示适当的术前模型。任选地,然后,用户106可以将光学标记插入患者的骨骼中用于精确跟踪。通过其对术前模型的可视化来通知对此标记的放置。可以通过替代性探测或成像(包含但不限于超声)进一步细化术前模型的位置和朝向。
第七,在外科手术期间,使用具有显示装置104的系统10的用户106可以看到术前计划信息,并且可以跟踪仪器和植入物并提供各种各样的术中测量,所述术中测量包含但不限于钻或螺钉相对于解剖体的深度、仪器的角度、骨骼切割的角度等。
参考图8,呈现了在程序期间使用系统10的操作流程的示例性实施例。在本实施例中,CPU 401启动(800)并初始化一个或多个相机402、404、406(802)。当处于一个或多个相机402、404、406的视野中时,对第一标记100进行定位和标识(804),之后对后续标记108、110进行定位和标识(806)。对这些标记100、108、110的跟踪提供了相对于彼此的位置和朝向以及对主相机的定位(808)。来自如IMU等传感器和相机(来自远程传感器套件422)的替代性传感器数据(810)可以任选地并入数据集。进一步地,可以任选地并入关于患者、目标、工具或环境的其它部分的外部辅助数据(812),用于在算法中使用。本发明中使用的算法是为特定的程序和所收集的数据定制的。算法输出(814)期望的辅助数据,用于在显示装置中使用(816)。
III.髋关节置换程序
在本发明的一个示例性实施例中并且参考图6,系统10用于髋关节置换外科手术,其中第一标记600通过固定器602附接到骨盆604,并且第二标记606附接到撞击器608。用户106可以通过显示装置104看到图6中示出的混合现实用户界面图像(“MXUI”)。MXUI在髋关节置换程序期间提供骨盆604和撞击器604在用户的视野中的立体虚拟图像。
这些物理对象上的标记(600,606)的组合与先前的处理和特定算法组合允许对用户106所关注的量度进行计算,以便于准确放置髋臼壳612,所述量度包含撞击器608相对于骨盆604的实时倒转角和倾斜角。进一步地,可以呈现对从术前状态到术后状态的物理参数的测量,所述测量包含但不限于总体腿部长度的变化。可以以可读形式610或图像形式呈现数据,所述呈现包含但不限于工具的3D呈现或其它引导形式。
图7描绘了先前图6中示出的MXUI的替代性视图,其中向用户106呈现了虚拟目标700和虚拟工具702,以便于在实现期望的倒转和倾斜中容易使用。在此实施例中,虚拟现实的进一步组合用于通过使具有实际工具702的虚拟目标700完全可视或使具有虚拟目标的虚拟工具(未示出)完全可视来优化用户的自然感觉体验。可以任选地提供现实图像和虚拟图像的其它组合。可以以可读形式704或图像形式呈现数据,所述呈现包含但不限于工具的3D呈现或其它引导形式。
参考图9,本发明进一步提供了一种使用系统10执行髋关节置换程序(900)的方法,其中髋骨具有铰出的臼,并且插入置换杯以与患者的腿部一起使用。在此实施例中,第一标记(例如,100,108或110等)相对于所述标记安装在已知尺寸的固定器上,并且此固定器安装在患者的髋骨上(902)。第二独特的标记(例如100,108或110等)相对于第一标记安装在已知尺寸的指向装置上(904)。使用光学标记和髋关节与指针之间的位置/朝向的差异对骨骼界标或其它解剖界标相对于髋关节固定器的位置和朝向(906)进行配准。这些点用于确定局部坐标系(908)。指针用于在股骨脱位之前确定股骨的位置和方向,并且对髋骨的髋臼进行铰孔来为置换壳留出空间(910)。其上安装有置换壳的撞击器具有安装有已知尺寸的撞击器的第三独特的标记(912)。根据先前描述的关于髋关节标记的算法对具有壳的撞击器进行跟踪(914)。髋关节标记与撞击器之间的相对位置和朝向用于引导根据患者的医疗需要通过AR或VR显示器将壳以期望的位置和角度放置到臼中(916)。此时,在程序中,还可以使用经置换的股骨的标记位置和朝向计算腿部长度的变化(918)。另一个实施例用术前CT数据来增强此程序,以确定组件的定位。另一个实施例使用AR方式或VR方式的显示输出确定股骨头切割。另一个实施例使用数据将螺钉放置到髋臼中。
在一些实施方案中,患者所躺的台面或支架的坐标参考系是期望理想的。如下可以实现台面相对于地面、特别是相对于重力的对准。EVIU(来自传感器套件中的每一个传感器套件,如定位在AR头戴设备3600中的一个传感器套件)提供显示装置104在任何给定时刻相对于重力的俯仰朝向和滚动朝向。可替代地,假设大多数壁和与其相关的特征是平行于重力矢量构建的,则SLAM或类似的环境跟踪算法将提供显示装置104相对于重力的俯仰朝向和滚动朝向。与显示装置104与重力的关系分开,可以通过使用触针确定台面的方向,将三(3)个独立点在台面上配准。用选自显示装置104的坐标系中的这三个点,然后也可以确定台面相对于重力的滚动角和俯仰角。可替代地,可以使用机器视觉算法来确定相对于重力的朝向,从而对台面进行标识和识别。患者的脊柱在俯仰和滚动中相对于显示装置104以及因此如由髋关节标记所界定的任何其它目标坐标系的对准现在是已知的。为了提供偏摆参考,触针可以与髋关节标记结合使用,以限定患者头部定位在哪里,所述定位提供了脊柱相对于其的方向。可替代地,患者头部的图像识别可以用于自动确定。最终,台面和/或患者脊柱的滚动、俯仰和偏摆现在完全限定在显示装置104和所有相关联的坐标系中。
参考图11-12,系统10可以任选地包含用于髋关节成形程序的髋关节撞击器组合件1100。所述组合件包含髋臼壳1102和组装到髋臼撞击器1106的光学标记1104(与上述100、108、110、502、504、600、606、804、806、904、912相同)。图12描绘了组合件1100的分解视图,其展示了通过将分度柱1200插入分度孔1202如何以可再现的方式将光学标记1104附接到撞击器1106。髋臼壳1102通过拧紧到撞击器的螺纹远端1204并且就位于肩部1206上而与撞击器1106可再现地组装在一起。标记1104包含第一基准1108、第二基准1110和第三基准1112;每个基准具有相邻的黑色和白色区域,其中其边界形成相交的直线。AR头戴设备3600中的算法用于处理来自立体相机(3904)的图像,以计算每个基准(1108,1110,1112)的相交点,并且从而确定标记1104的六自由度姿态。出于本说明书的目的,“姿态”被定义为对象的位置与朝向的组合。基准(1108,1110和1112)可以通过在自粘贴纸上印刷、通过将黑色区域激光蚀刻到白色塑料材料的表面上或替代性方法产生。壳含有固定孔1114,螺钉任选地用于通过所述固定孔将壳1102固定到髋臼的骨骼上。
在另一个示例性实施例中并且参考图13A-B和14,系统10任选地包含解剖标记组合件1300,所述解剖标记组合件包含夹具组合件1302和光学标记1304。夹具组合件1302包含基座1400、第一泪珠形孔1402和第二泪珠形孔1404。已经固定到骨骼上的固定销(未示出)可以通过泪珠形孔(1402,1404)插入并且夹在夹爪1406与主体1400之间,从而将夹具组合件1302固定到销上,并且因此固定到骨骼上。夹紧螺钉1408接合爪中的螺纹,并且用于将组合件1302收紧到销上。六边型孔1410允许将六角驱动器用于收紧组合件1302。第一保持销1412和第二保持销1414防止夹具组合件1302拆卸。标记主体1416具有第一定位柱1418、第二定位柱1420和第三定位柱1422,所述定位柱通过将两个定位柱与基座中的定位孔1424和定位槽1426接合来提供到基座1400的定位。设计提供了标记1304的两种可能的旋转位置,这允许标记1304相对于显示装置104(例如,AR头戴设备3600)中的相机(例如,3904)朝向,以便于进行最佳跟踪。标记主体1416包封磁体(未示出),所述磁体向基座1400提供充足的保持力。
参考图15-17,系统10可以任选地包含校准组合件1500,所述校准组合件包括板1502和标记1504,所述板和标记具有用于联接其(1502,1504)的榫舌和凹槽组合件特征。榫舌和凹槽组合件特征对于将金属组件精确地组装到塑料组件特别有用,所述塑料组件的热膨胀速率与金属组件的热膨胀速率不同。板1502具有多个孔1506,所述多个孔具有用于接受各种撞击器类型的多种螺纹类型。标记1504具有陷窝1508,触针的尖端可以插入所述陷窝以进行配准。标记1504具有多个基准1510。
图18描绘了通过显示装置104(例如,AR头戴设备3600)向用户106显示的MXUI的示例性实施例,其示出了用于各个校准步骤的校准组合件1500。首先,髋关节撞击器组合件1100可以旋拧到板1502的适当的孔中,使得肩部1206成方形地就位,而不会与板1502的表面碰撞。然后,AR头戴设备3600的相机3904可以捕获图像,所述图像由算法处理,以确定撞击器的髋臼壳将就位在其上的肩部与髋关节撞击器组合件1100的标记1104之间的关系。触针1800被示出含有用于跟踪的多个基准1802。可以将触针1800的尖端1804插入板1502的陷窝1508中,以允许确定尖端1804相对于触针1800的标记的坐标。示出了虚拟引导点1806,所述虚拟引导点在相对于标记1504的具体位置处投射到用户106的视野中。用户106放置实际触针1800的尖端1804,其中虚拟引导点1806根据用户106的深度感知定位,从而将其实际视图与由虚拟引导点表示的虚拟视图连接。算法然后应用校正因子来解释如用户106的眼内距离等变量。如果在混合现实的状态下依靠用户的深度感知对工具或植入物进行精确定位,这是有益的。
图19描绘了在髋关节置换程序开始时通过患者1900的显示装置104向用户106显示的MXUI的示例性实施例。用如Ioban等胶带将具有用于跟踪的多个基准1904的股骨标记1902附接到患者1900大腿的皮肤上。可替代地,可以通过使用如图13B所描绘的销和夹具组合物将股骨标记1902直接固定到股骨的骨骼上。用户106使用触针1800的尖端1804对骨盆的前界标进行配准,以确定骨盆在股骨标记1902的参考系中的定位,从而建立临时骨盆参考系。在另一个实施例中,这种配准可以处于通过对患者的可见表面进行SLAM扫描所界定的主体参考系中。在另一个实施例中,可以通过用SLAM生成表面图,并且通过将虚拟点1910依次通过其头部的运动定位在每个界标上使用户106标识每个点,来对骨盆的前界标进行配准。在另一个实施例中,单个基准1906可以放置在待配准的定位处。虚拟圈1908可以用于限定其位置通过用户106的目光来控制的掩模。机器视觉算法仅在虚拟圈1908内寻找单个基准1906。配准步骤可以由用户106用如“配准点”等语音命令触发。用户106也可以对表示远端股骨的点(如髌骨或内侧上髁和外侧上髁的中心)进行配准。当每个点被配准时,如小球等虚拟标记可以在配准时和之后被定位并保持在尖端的定位处,以向用户106提供视觉确认并检查配准的质量。
图20描绘了在髋关节置换程序期间通过虚拟骨盆2000和虚拟股骨2002的显示装置104向用户106显示的MXUI的示例性实施例。如果患者特定的模型已经上传到显示装置104,则这些模型的虚拟模型将连同如神经血管结构等所关注的任何其它虚拟特征一起显示。如果未上传,那么虚拟骨盆和虚拟股骨可以是性别特定的模型,所述模型已经被缩放以最佳匹配所配准的界标的间隔。显示了两个固定销中的每一个固定销的第一虚拟轨迹2004和第二虚拟轨迹2006。在其它实施例中,这些轨迹可以呈管状或锥形。钻2008被示出包含将标记限定在多个表面上的多个基准2010,所述基准允许从各种有利位置跟踪钻头的姿态。可以通过在钻未被跟踪的情况下将实际销2012与虚拟轨迹2004对齐或者在通过钻被跟踪的情况下将虚拟销(未示出)与虚拟轨迹对准来引导插入每个销。如果钻被跟踪,则钻相对于骨盆参考系的角度以数字方式显示,以便于进行另外的增强。虚拟文本2014定位在实际钻的表面2016上,并且随着钻移动,使得与由虚拟文本所表示的角度相关联的对象对用户而言是直观的。
图21描绘了在髋关节置换程序期间通过显示装置104向用户106显示的MXUI的示例性实施例,其中解剖标记1300通过夹到插入髂嵴的销2106上而附接到患者的骨盆。此时,将与跟踪骨盆相关的参考系从先前的参考系转移到解剖标记1300的参考系。如果需要,可以将骨盆重新配准,以增加准确性。用户106然后使用虚拟骨盆2102、虚拟股骨2104和虚拟神经血管结构(未示出)制造切口并使股骨暴露,以作为对切口定位和肌肉切除以及关节囊分离的引导,以使髋关节和股骨颈暴露。此时,用户106将腿部放置在相对于骨盆的、具有近似中性外展、屈曲和旋转的参考位置。
图22描绘了在髋关节置换程序的股骨配准期间通过显示装置104向用户106显示的MXUI的示例性实施例。触针1800的尖端放置在近端股骨上的参考点2200上。此时,确定并记录如由标记1902与1300之间的关系所限定的股骨相对于骨盆的基线朝向。另外,记录参考点2200在骨盆参考系中的坐标。可以通过用外科手术笔进行标记、在骨骼上钻小孔或插入小的方针来加强参考点2200。为了提高配准的精度,显示了以触针的尖端为中心的经放大的立体图像2202,如图22所示。为了帮助用户106之后在程序中找到参考点,可以在配准时记录基线图像或触针的点周围区域的图像。这些图像可以是立体图像。然后,用户106使用触针1800的尖端1804将点配准在股骨颈切割的期望定位上。这个点通常是股骨颈的最上面的点/横向点。计算最佳切除平面,所述切除平面以适当的外展角和倒转角穿过这个点。
图23描绘了在用虚拟切除引导器2300切除髋关节置换程序的股骨颈期间通过显示装置104向用户106显示的MXUI的示例性实施例。矢状锯2302被示出具有限定标记的多个基准2304,其允许矢状锯2302的姿态被跟踪。可以通过在钻未被跟踪的情况下将实际锯片2306与虚拟切除引导器2300对准或者在钻2302被跟踪的情况下将虚拟锯片(未示出)与虚拟切除引导器2300对准来引导切除股骨颈。与图20中示出的跟踪钻一样,如果锯2302被跟踪,则锯2302的角度可以以数字方式显示。这些角度可以相对于骨盆参考系或股骨参考系显示。
图24描绘了在对髋关节置换程序的髋臼壳定位期间通过显示装置104向用户106显示的MXUI的示例性实施例,其中示出了髋臼撞击器组合件1100的虚拟目标2400以及虚拟壳2402。髋臼撞击器组合件1100的放置通过操纵髋臼撞击器组合件以与虚拟目标2400对准来引导。虚拟目标的壳部分的后象限/侧象限可以以不同的颜色显示,或者以其它方式在视觉上与壳2402的其余部分区分,从而向用户106标定目标,用于将螺钉安全放置到髋臼中。髋臼撞击器的数值角和相对于铰孔或未铰孔髋臼的插入深度以数字方式显示为虚拟文本2404。可以显示类似于以撞击器的尖端为中心的2202的经放大的立体图像(未示出),所述经放大的立体图像示出了虚拟壳如何与虚拟骨盆2102的髋臼界接。
图25描绘了在对髋关节置换程序的髋臼壳定位期间通过显示装置104向用户106显示的MXUI的示例性实施例,其中示出了髋臼撞击器的虚拟轴2500以及虚拟目标2400。髋臼撞击器的放置通过操纵髋臼撞击器以使虚拟轴2500与虚拟目标2400对准来引导。
图26描绘了在对髋关节置换程序的股骨重新定位和重新配准期间通过显示装置104向用户106显示的MXUI的示例性实施例。虚拟股骨目标2600被示出表示在基线股骨配准期间股骨相对于骨盆的术前朝向。虚拟股骨目标的上顶点放置在靠近近端股骨上的参考点。虚拟股骨框架2602被示出表示股骨的当前朝向。随着股骨移动,虚拟股骨框架2602围绕虚拟股骨目标2600的上顶点旋转。通过操纵股骨使虚拟股骨框架2602与虚拟股骨目标2600在外展、屈曲和旋转中对准,来实现将股骨重新定位到基线朝向。随着股骨重新定位在基线朝向中,用户然后使用触针1800的尖端1804对近端股骨上的参考点进行重新配准,以确定腿部长度的变化和从基线测量的横向偏移。可以显示基线股骨配准期间较早记录的基线图像2604,以帮助精确地对相同的参考点进行重新配准。
参考图50-52,系统10可以任选地包含用于在没有固定到解剖体的外部基准的情况下跟踪解剖结构的装置。图50A-B描绘了示例性实施例,其中股骨5002脱位,允许系统10使用传感器套件210来创建小转子5010的暴露表面的参考3维表面图5014。小转子的表面在整个程序中保持不变,并且可以被系统10用于在没有另外的基准的情况下跟踪股骨。参考3维表面图5014的边界可以任选地由用户通过使用光标或指向装置跟踪曲线来指示,所述光标或指向装置可以通过跟踪用户的视线来操作。系统10可以将参考3维图5014作为点云、作为数学表面或通过其它方式存储。系统10可以创建相对于传感器套件210的参考系5016,并且将所述表面图5014的初始姿态记录在参考系5016中。用户106可以在如股骨头5006、股骨颈5008和髋臼5012等同一骨骼或刚性体上对另外的参考点或结构进行配准。系统可以分别为股骨头、股骨颈和髋臼创建另外的3维表面图5020、5022、5024,系统10记录所述表面图相对于参考系5016的姿态。系统10使用传感器套件210连续地重新扫描小转子5010,并且生成解剖体的移位的3维表面图5018。然后将移位的3维表面图5018与为同一表面创建的参考3维表面图5014进行比较,系统10确定为了最佳拟合而将移位表面图5018与参考表面图5014对准所需的几何旋转和平移。系统10然后将相同的旋转和平移应用于股骨5002的刚性体上的所有存储的参考点和结构,以计算所有此类点和结构相对于传感器套件210的参考系的当前姿态。系统10可以计算股骨头5006或髋臼5012的直径,并将所述直径显示给用户106,作为选择髋臼铰刀大小的引导。系统10可以计算股骨头5006相对于参考表面图5014的中心。系统10也可以计算髋臼5012相对于骨盆5004的中心的位置。然后,用户106将所附基准5104的拉刀或铰刀5102插入股骨的管道中,以标识股骨轴5106。系统10计算股骨头5006与股骨轴5106之间的股骨颈轴5118。随着膝关节5110弯曲到大约90°,相机206扫描小腿5112,标识小腿的近似中心轴5114,所述近似中心轴与股骨轴5106一起用于限定参考平面5116,天然股骨颈轴5118的倒转角根据所述参考平面计算。在程序过程中,天然股骨头5006和髋臼5012分别被股骨植入物5202和髋臼植入物5204替代。系统10可以检测所植入的髋臼壳5204和股骨头5208的中心,允许系统10计算和显示从股骨轴5106到股骨头5208的距离(股骨偏移)的变化,或髋臼5208的中心位置在每个结构的相应的天然状态与植入状态之间的变化。在股骨头5006置换之后,但在髋臼5012置换之前,系统10可以使用经置换的股骨头5208基于股骨颈轴5206的新的计算来计算和显示股骨倒转。系统10可以计算和显示髋臼植入物5204中所需的另外的前倾,以实现股骨植入物5202与髋臼植入物5204所组合的前倾的目标。系统10可以计算和显示由于程序的结果而引起的股骨5002与骨盆5004之间的距离的变化。
图53描绘了通过其暴露表面5302的一部分的3维图而非通过补充基准的方式跟踪的髋关节撞击器5300的示例性实施例。系统10可以通过使用相机206同时扫描壳5304和撞击器表面将髋臼壳5304配准到此表面。
图59描绘了流程图,其示出了系统10和其传感器套件210可以如何使用以在髋关节置换程序中进行导航。传感器套件210可以扫描小转子5010(5902)。根据此扫描,可以存储参考3维表面图5014(5904)。然后,系统10可以建立股骨5002相对于传感器套件210的参考系5016(5906)。然后,重复扫描所暴露的小转子5010,系统10针对每次扫描生成移位的3维表面图5018(5908)。在每次连续扫描时,系统可以将移位表面图5018与小转子5010上的同一区域的参考表面图5014进行比较。基于此比较,系统10可以通过确定使移位表面图5018与参考表面图5014最佳拟合所需的平移和旋转来跟踪股骨5002相对于传感器套件210的姿态(5910)。
图54描绘了流程图,其示出了系统10和其传感器套件210可以如何使用以分析髋关节运动学。传感器套件210可以扫描患者的解剖体的暴露表面,所述解剖体包含天然股骨头5006和髋臼5012(5400)。根据这些表面,可以存储每个结构的3维图5020、5024(5402)。然后,系统10可以使表面旋转到所期望的站立患者中的朝向,并且使其沿身体重量方向一起平移(5404)。然后,系统10可以计算两个表面之间的接触点或接触面,所述接触点或接触面与近似球形表面的中心相比可以是更适当的旋转中心(5406)。在用股骨植入物5202和髋臼植入物5204置换天然解剖体之后,系统10可以以类似方式标识植入物的接触点(5408)。使用植入物的几何形状,系统10可以扰动髋关节角度,以计算在植入物之间或植入物与骨骼之间发生撞击之前在每个方向上所允许的运动的角度范围(5410)。可以在显示装置104中突出限制运动的范围的第一撞击的定位(5412)。例如,股骨颈5008可以撞击在髋臼5012的暴露边缘上或髋臼植入物5204上。如果撞击表面中的至少一个撞击表面位于天然骨骼上,用户106可以选择修整骨骼以增加运动范围。如果撞击表面中的至少一个撞击表面位于植入物上,用户106可以选择调整植入物的位置或角度。
IV.系统结合C型臂系统的使用
图27描绘了在用C型臂对患者进行成像期间通过显示装置104向用户106显示的MXUI的示例性实施例。C型臂成像系统2700被示出具有x射线源2702、成像单元2704和显示器单元2706。可跟踪标签2708已附接到C型臂2700。示出了虚拟髋部对准引导器2710和虚拟骨盆对准引导器2712。这些引导器垂直于前骨盆平面,并且分别以髋关节和耻骨联合为中心。C型臂2700的放置通过调整成像单元2704的表面以与适当的虚拟对准引导器对准来引导。如果C型臂2700是可跟踪的,则虚拟C型臂对准引导器2714可以显示。在此情况下,C型臂2700的放置通过调整虚拟C型臂对准引导器2714以与适当的虚拟对准引导器2710或2712对准来引导。相对于目标的位置不对准和角度不对准也可以以数字形式显示为虚拟文本2718。
图28描绘了流程图,其示出了在外科手术程序中系统10和其显示装置104(例如,AR头戴设备3600)可以如何与C型臂2700结合使用。并入AR头戴设备3600中的相机3904(例如,高清晰度相机等)可以用于捕获显示在C型臂监测器上的图像(2800)。可以将图像调整成“摆正”,使得如果相机3904已经完全位于监测器上的图像的中心并且与所述图像垂直,则图像与将看到的图像相匹配(2802)。可以使用关于相对于正在成像的解剖体的成像器位置和源的了解来校正用于放大的图像和由于来自源的X射线束的发散导致的视差失真(2804)。然后可以使经校正的图像显示在AR头戴设备3600中(2806)。所述经校正的图像然后可以用于允许用户106进行与如髋臼杯的放置或腿部长度等程序相关的测量(2808)。可以将其它图像同时显示、覆盖、镜像或以其它方式操纵,以允许用户106进行比较(2810)。
在另一个实施例中,还可以通过C型臂2700与AR头戴设备3600之间的无线通信(例如通过以DICOM格式传输文件)实现图像捕获。可替代地,可以采用结合机器视觉的算法以自动进行如髋臼壳的倾斜和倒转等测量。可以使用边缘检测来跟踪壳的轮廓。可以确定与轮廓最佳匹配的椭圆的参数,并且所述椭圆的参数可以用于根据最佳椭圆的短轴和长轴的长度比来计算壳的前倾。可以例如通过放置与耻骨支最下面相切的线并且计算壳的椭圆的长轴与这条线之间的角度来计算倾斜。类似地,通过识别从股骨头旋转的中心或壳的球形区段的中心,并且围绕此点执行虚拟旋转以匹配外展角,可以确定股骨的对比腿部长度和横向偏移,并且可以针对股骨的外展的变化和差异对其进行校正。这种类型的计算几乎可以立即执行,并且节省时间或节省提取另外的射线图像的需要。此外并且在另一个实施例中,算法可以通过执行虚拟旋转以匹配表示闭孔的射线可透过区域的宽度和纵横比来校正骨盆的错误定位对壳的表观倾斜和前倾的影响。
在又另一个实施例中,C型臂成像可以用于对如骨盆等解剖体的位置进行配准。为此,解剖标记1300将已知几何形状的不透射线特征并入已知图案中。基于已知的标记特征捕获和缩放C型臂图像,并将其显示在AR头戴设备3600中。向用户106显示解剖体的从先前的CT扫描生成的虚拟模型。用户106可以操纵虚拟模型从而以其轮廓匹配C型臂图像的方式将所述虚拟模型定位。优选地,此操纵通过使用SLAM跟踪用户106的手的位置和运动来执行。可替代地,用户106可以操纵物理对象,所述物理对象将标记与随着物理对象移动的虚拟模型结合。当虚拟模型与C型臂图像正确对准时,可以计算患者的解剖体与解剖标记1300之间的关系。这些步骤和操纵还可以由软件通过使用边缘检测并将其匹配到从CT生成的模型的轮廓的投射以计算方式执行。
V.脊柱程序
图31描绘了在用超声对脊柱进行配准期间通过显示装置104向用户106显示的MXUI的示例性实施例。将解剖标记1300固定到手术部位邻近的椎骨上。提供了超声探针3104,所述超声探针包含限定标记的基准3106。在一个实施例中,超声探头3104是电池操作的、无绳的,并且可以通过无线电与AR头戴设备3600通信。软件具有能够相对于标记1300的位置对2D超声图像进行定位和缩放所需的几何信息和其它信息。超声探针3104在患者3100的表面上移动,以扫描所关注的区域。软件将2D图像数据与超声探头3104相对于解剖标记1300的六自由度姿态信息组合,以生成表示所关注的椎骨的表面的虚拟模型3108。超声探头3104可以相对于所关注的解剖体旋转以获得更加完整的3D图像。可以将脊柱棘突和左右侧乳状突的后部轮廓与椎骨的CT生成的3D模型的相同特征匹配,以在混合现实视图中对椎骨的虚拟模型进行配准和随后定位。可替代地,可以利用超声扫描中可见的任何适当的特征,或者虚拟模型的位置可以相对于如SLAM所确定的患者的表面。后者适用于所关注的患者解剖体对于程序持续时间是静止的并且标记的附接将不必是侵入性或负担时的程序。超声可以类似地以此方式使用,以生成所关注的解剖体的模型,所述解剖体如但不限于骨结构、神经和血管。可以实现任何解剖体的配准。例如,可以使用超声建立骨盆参考系,以定位左侧和右侧ASIS和耻骨的近端顶点。可以使用相同的方法经皮跟踪工具或植入体的位置。
图32描绘了在用触针1800对脊柱进行配准期间通过显示装置104向用户106显示的MXUI的示例性实施例。将所述解剖标记1300固定到手术部位邻近的椎骨上。显示从术前成像生成的患者的椎骨的虚拟模型3200。此虚拟模型包含第一界标3202、第二界标3204和第三界标3206。图33描绘了图32中所示的暴露解剖体的近视图。患者的软组织已经充分切开以使含有三个界标的第一骨突3300、第二骨突3302和第三骨突3304暴露。用户106通过将触针尖端1804放置在与虚拟模型上显示的界标的位置最匹配的实际椎骨上的点处来对三个界标进行配准。然后,软件在用户的视图中重新定位虚拟模型3200,以使这些点最佳对准。用户106通过将虚拟模型与椎骨的实际暴露区域进行比较,从视觉上验证配准的质量。如果需要,用户106可以通过使用触针1800的尖端1804进行调整,以重新定位虚拟模型。在替代性实施例中,界标是在每个突的最后面之上追踪的弧。在另一个实施例中,所暴露的突的轮廓用SLAM建立,并且软件对虚拟模型的位置执行最佳拟合以匹配这些轮廓。
图34描绘了在脊柱融合程序期间通过显示装置104向用户106显示的MXUI的示例性实施例。示出了钻头的虚拟目标3400和虚拟钻头3402。示出了虚拟椎骨3404,所述虚拟椎骨被渲染为相对于虚拟目标3400和虚拟钻头3402是透明的。钻头的数值角和穿透深度或者从钻头的尖端到最大安全插入深度的距离以数字方式显示为虚拟文本3406。图35描绘了图34中所示的虚拟目标3400和虚拟钻头3402的近视图。虚拟目标3400被示出为处于杆3500形式,所述杆具有近端十字准线3502和远端十字准线3504。为了将实际钻头保持在安全目标轨迹中,用户必须保持虚拟钻头3402穿过虚拟目标3400的两个十字准线的环的位置。当虚拟钻头3402穿过两个十字准线的中心时,实现了理想轨迹。如果实际钻头移动到安全目标轨迹之外,则虚拟目标3400的颜色发生变化以警告用户,并且发出可听警告。将远端十字准线3504定位在骨骼的表面上的计划起点。缩放虚拟目标3400和虚拟钻头3402的轴长,使得当钻达到其最大计划深度时,所述虚拟目标和所述虚拟钻头的近端是重合的。虚拟钻头的位移运动的缩放比例在虚拟钻头3402远离虚拟目标3400时为1:1,但是在更接近允许更大的精度时扩大到用于更大精度的更高的放大率。
尽管这是在用钻头钻孔的背景下描述的,但是此混合现实视图可以用于多个步骤,包含对椎弓根进行攻丝或在椎弓根螺钉中进行驱动或使用可跟踪锥子寻找椎弓根螺钉的管道。作为在钻、丝锥或螺钉被换出时对其尖端的轴向位置重新校准的快速方法,用户将尖端放置到标记的陷窝中。可以以侵入性较少的方式通过AR引导引入植入物,例如可以在PLIF、XLIF或TLIF程序期间对椎间融合器定位。
在另一个实施例中,外科手术钻可以被配备成与头戴设备无线通信,以提供双向通信。这可以促进各种安全性和可用性增强特征,所述特征包含以下特征。如果钻不在安全目标轨迹内或达到了最大安全深度,则自动停止钻孔或阻止操作。提供方便的用户界面,为扭矩限制应用指定适当的扭矩设置参数。例如,给定大小的椎弓根螺钉的最大插入扭矩或椎弓根螺钉的固定螺钉的固定扭矩。出于文件记录或研究的目的,可以将所使用的实际值与患者记录一起记录,例如,钻孔期间的扭矩曲线、椎弓根螺钉或固定螺钉的最终座合扭矩、椎弓根螺钉或所使用的特定植入物的植入位置。
在另一个实施例中,AR头戴设备3600可以无线连接到神经监测/神经定位系统,以(特别是在如XLIF等微创程序期间)向用户106(例如脊柱外科医生)提供其视野内的实时警告和测量。进一步地,当与其中已经对患者的实际神经进行成像并将其重构为3D模型的术前成像结合使用时,如果系统检测到刺激探针已经刺激或正在靠近特定神经,则可以向用户106突出表示该神经结构的全息图,以使其更易于避免与神经结构的接触或对神经结构的损伤。
VI.膝关节置换程序
在本发明的另一个示例性实施例中并且参考图42,系统10用于膝关节置换程序。图42中示出了膝关节置换患者的骨盆4202、股骨4204和胫骨4206,外科医生4208(即,用户106)被示出为佩戴AR头戴设备3600。用销将股骨标记4210和胫骨标记4212分别固定到股骨和胫骨。使股骨在运动的范围内移动,以确定旋转中心,作为在股骨标记4210的参考系中髋关节中心的代表。然后,使膝关节在运动的范围内弯曲,以确定膝关节的基线、术前屈曲轴。然后,外科医生4208制造切口以使膝关节暴露。触针1800用于基于如滑车的沟的最远端点等界标对远端股骨的中心进行配准。通过将ACL的足迹与触针的尖端进行配准来界定胫骨的近端中心。对于某些微创程序,可以通过使触针穿过一个端口插入关节囊并用通过第二端口插入的关节镜4214使其可视化,以在关节镜下对骨骼界标进行配准。进一步地,可以将来自关节镜的关节镜图像4216无线地传送到AR头戴设备3600,并且使其显示为MRU!的一部分。在一个替代性实施例中,可以将触针尖端并入可跟踪关节镜,以允许通过单个端口进行界标配准。然后,触针1800可以用于对内踝和外踝进行配准,并且通过内插这些点来确定踝关节在胫骨标记4212的参考系中的中心。此时,建立股骨参考系,所述股骨参考系的原点位于远端股骨的中心,第一轴朝向髋关节的中心延伸,第二轴由膝关节的屈曲轴限定,并且第三轴被限定成垂直于第一轴和第二轴。对胫骨参考系进行限定,所述胫骨参考系的原点位于近端胫骨的中心,第一轴朝向踝关节的中心延伸,第二轴由膝关节的屈曲轴限定,并且第三轴被限定成垂直于第一轴和第二轴。这些参考系可以呈现为MRU!中的虚拟图像。
图43示出了在用暴露的膝关节进行膝关节置换外科手术期间通过AR头戴设备3600向外科医生4208显示的MXUI的示例性实施例。可以通过用AR头戴设备3600中的深度传感器3906进行扫描或者通过使用立体相机3904和SLAM来生成股骨髁4302和胫骨坪4304的形貌图。可以使膝关节在运动的范围内弯曲,并且外科医生4208将调整其有利位置以允许使髁尽可能地可视化。外科医生4208在配准过程期间使用视野的中心处的圈4306“画”髁,并且将所述圈用作用于映射算法的掩模。此圈可以与用于增加映射的速度和精度的结构化光投影仪的投影场重合。在映射表面时,可以将映射区域的虚拟3D网格4308投射到关节表面上,以引导外科医生4208并且提供对表面配准的质量的视觉确认。然后,使用算法来确定远端股骨和近端胫骨的关节表面的最低点,从而确定远端股骨切除和近端胫骨切除的深度。可以根据形貌图确定理想的植入物大小。
在另一个示例性实施例中,系统10可以使用股骨4204和胫骨4206的形貌图来跟踪相应的骨骼(4204,4206)的姿态,而非将基准标记附接到骨骼(4204,4206)。在优选的实施例中,用户106可以选择当膝关节弯曲和伸展时将保持可见的骨骼区域(4204,4206)。参考图58A-C,用户106可以选择映射胫骨5808的前内侧,或者远端股骨5806的前内侧,分别创建参考3维表面图5802和5804。这些区域通过典型的皮肤切口是可见的。可以使用常规的缩回仪器和技术来保持可视性。系统10可以将参考3维图5802和5804作为点云、数学表面或通过其它方式存储。系统10可以创建相对于传感器套件210的胫骨参考系5812和股骨参考系5810,并且将表面图5802和5804的初始姿态分别记录在参考系5812和5810中。用户106可以在同一骨骼或刚性体上对另外的参考点或结构进行配准,系统10记录所述骨骼或刚性体相对于参考系5812或参考系5810的姿态。系统10使用传感器套件210连续重新扫描解剖体的相同区段,并且针对胫骨和股骨分别创建移位3维表面图5816和5814。然后将每个移位表面图5816、5814与针对相同的表面创建的相应的参考表面图5802、5804进行比较,系统10确定为了最佳拟合而将移位表面图与参考表面图对准所需的几何旋转和平移。系统10然后将相同的旋转和平移应用于股骨4204和胫骨4206的刚性体上的所有存储的参考点和结构,以计算所有此类点和结构相对于传感器套件210的参考系的当前姿态。
图55描绘了流程图,其示出了使用系统对膝关节置换程序进行导航的示例性方法。用户(106)首先使膝关节暴露,以使骨骼解剖体(5500)可视化。然后,传感器套件210扫描远端股骨5806的前内侧和近端胫骨5808的前内侧(5502)。根据这些表面,可以存储参考3维表面图5802、5804(5504)。系统可以任选地扫描和映射股骨髁5818、滑车5820、胫骨平台5822、后髁5824或上髁5826中较大的区域。分别根据这些扩展的表面图5828、5830、5832、5834、5836,并且任选地使用外部解剖学数据,系统10标识远端股骨4204的中心和近端胫骨4206的中心(5506)。在扫描远端股骨5806的同时股骨在运动的范围内移动,以确定股骨绕髋关节旋转的中心,作为髋关节相对于经映射的远端股骨解剖体5804的代表(5508)。然后,用户106通过将小腿5112布置成大约垂直于股骨4204,将膝关节定位成以90°屈曲。在膝关节弯曲的情况下,系统10使用其传感器套件210扫描远端股骨5806和小腿5112,标识其近似中心轴5114。可替代地,当膝关节在90度运动范围内弯曲时,系统10使用其传感器套件210扫描远端股骨5806和近端胫骨5808,以标识膝关节的平均屈曲轴。然后,系统10建立针对股骨4204的相对于传感器套件210的参考系5810,所述参考系的原点位于远端股骨的中心,第一轴朝向髋关节的中心延伸,第二轴平行于下肢5114的轴,并且第三轴被限定成垂直于第一轴和第二轴(5510)。可替代地,系统建立针对股骨4204的相对于传感器套件210的参考系5810,所述参考系的原点位于远端股骨的中心,第一轴朝向髋关节的中心延伸,第二轴平行于膝关节的屈曲轴,并且第三轴被限定成垂直于第一轴和第二轴。记录后髁相对于胫骨的定位,并且在后髁与胫骨之间构建轴。系统10生成脚的背侧表面的区段的表面图,用于跟踪脚的姿态的目的。在替代性实施例中,可以通过贴附到皮肤或覆盖帘、包裹物或靴的标记对脚进行跟踪。脚在运动的范围内移动,以确定其旋转中心,作为踝关节相对于经映射的近端胫骨解剖体的中心的代表(5512)。然后,在近端胫骨中心与踝关节中心之间构建胫骨的机械轴,并且建立针对胫骨4206的相对于传感器套件210的参考系5812,所述参考系的原点位于近端胫骨的中心,第一轴朝向髋关节的中心延伸,第二轴平行于下肢5114的轴,并且第三轴被限定成垂直于第一轴和第二轴(5514)。可替代地,系统建立针对胫骨4206的相对于传感器套件210的参考系5812,所述参考系的原点位于近端胫骨的中心,第一轴朝向踝关节的中心延伸,第二轴平行于膝关节的屈曲轴,并且第三轴被限定成垂直于第一轴和第二轴。然后,重复扫描所暴露的远端股骨5806和近端胫骨5808,系统10针对每次扫描生成移位表面图5814和5816(5516)。在每次连续扫描的情况下,系统可以针对远端股骨5806和近端胫骨5808上的相应的区域将移位表面图5814和5816分别与原始表面图5804和5802进行比较。基于此对比,系统10可以通过确定将移位表面图5814和5816与参考表面图5804和5802对准所需的平移和旋转来跟踪股骨4204和胫骨4206相对于传感器套件210的姿态(5518)。然后,系统10通过同时跟踪相应的经映射的解剖表面和切割工具或引导器来计算和显示远端股骨和近端胫骨上的切除角度和深度(5520)。然后,系统10可以显示虚拟引导器,以辅助用户106将切割工具或引导器与用户限定的目标角度或深度对准(5522)。系统10可以基于外部植入物数据向用户106建议植入物的大小(5524)。在放置植入物或试验植入物之后,系统10可以在整个屈曲范围内跟踪股骨和胫骨,并且测量股骨和胫骨绕一个或多个轴的表示例如轴向旋转或内翻/外翻旋转的相对旋转(5526)。
任选地,系统10可以使用经映射的形貌图来自动确定远端股骨5804(例如,通过标识滑车上的最远端点或穿过髁的最宽部分的线的中心)或近端胫骨5802(例如,通过计算坪的质心)的相应的中心。任选地,中心点的标识可以通过如已经对中心进行标识的解剖形貌图的库等外部数据补充,从而允许系统10在解剖体部分模糊的情况下计算中心点,以防止整个表面的映射。
图56描绘了具有植入单髁组件的膝关节。已经切除股骨5602和胫骨5604中的每一个的一个隔室。已经植入股骨植入物5606和胫骨植入物5608。在一个示例性实施例中,系统10跟踪并记录天然股骨5602和胫骨5604的相对运动。然后,使用相机206对植入物(5606,5608)的表面进行扫描和映射,系统10可以在所记录的胫骨-股骨运动之后计算植入物表面的路径。系统10还可以对剩余的暴露骨骼5610进行映射,并且检测植入物(5606,5608)与骨骼5610之间的碰撞。可以将表示干扰体之间的重叠的体积作为显示装置104中的虚拟模型来计算和覆盖。系统10还可以突出显示装置104中的撞击部位。例如,股骨植入物5606可以在邻近矢状切除平面5610的胫骨脊上撞击,或者此脊可以在邻近股骨植入物5606的股骨上撞击。如果至少一个接触表面是骨骼,则用户106可以选择修整骨骼以改变接触点。如果至少一个接触表面处于植入物上,则用户106可以选择调整植入物的位置以减少撞击。
参考图57,已经记录了天然胫股-股骨运动学的系统10可以向用户106显示植入物间的接触点5702的轨迹和投射到植入物的表面上的预定义安全区5704。
参考图44,可以在通过AR头戴设备3600向外科医生4208显示的MXUI中显示虚拟胫骨植入物4402和虚拟股骨植入物4404。外科医生4208可以切换大小并调整这些虚拟模型的位置,直到满意为止。在另一个实施例中,可以在准备胫骨以进行拉削期间显示虚拟胫骨植入物,以提供用于将胫骨组件旋转对准的引导器。
参考图45,在通过AR头戴设备3600向外科医生4208显示的MXUI中显示用于对胫骨切割块的销进行定位的虚拟引导器4502。显示了用于对远端股骨切割块的销进行定位的虚拟引导器4504。显示了用于对4合1切割块的销进行定位的虚拟引导器4506。通过将实际销与虚拟引导器4502、4504或4506对准来引导其放置。然后可以通过将这些销放置在切割块上来切除股骨4508和胫骨4510。
图46描绘了图45中所示的MXUI的替代性实施例,其中虚拟引导器4602用于显示切除的理想平面,并且外科医生4208可以通过将实际锯片与虚拟引导器4602对准来直接切除骨骼。可替代地,在所跟踪的锯4604的情况下,外科医生4208可以通过将虚拟锯片4606与虚拟引导器4602对准来切除骨骼。示出每次切除的内翻/外翻角度、屈曲角度和深度的虚拟文本4608可以在相关时以数字形式显示。
图47和49描绘了膝关节平衡装置4700,所述膝关节平衡装置可以任选地包含在具有基座元件4702、弹簧4902、髁元件4904和髁板4906的系统10中。基座元件4702包含手柄4908、目标4714以及胫骨板4910。髁元件4904包含手柄4912和圆柱形轴承孔4914。髁板4906包含圆柱形轴承轴4916、目标4716和两个桨叶4706和4707。髁板4906绕圆柱形轴承4916枢转,这允许髁板4906相对于基板4910向内侧/外侧倾斜。在替代性实施例中,轴承4916可以是球式的,允许髁板4906向内侧/外侧倾斜以及屈曲/延伸倾斜。在另一个实施例中,髁板4906可以是波状的,以匹配胫骨植入物的轴承表面的形貌。在另一个实施例中,设计可以包含两个完全独立的髁元件,每个髁元件各自具有刚性集成的牵引桨和标记。
参考图47,胫骨板4910就位在切除的胫骨4704上,并且牵引桨4706和4707保持分别与内侧股骨髁4708和外侧股骨髁4712的接触。通过弹簧4902推动牵引桨4706和4707,并且牵引桨绕前后轴枢转,以在每个股骨髁(4708,4712)与胫骨4704之间提供几乎相等且恒定的牵引力。基座元件4702和牵引桨(4706,4704)包含光学标记(4714,4716),所述光学标记允许软件测量每个股骨髁(4708,4712)的牵引程度。
当膝关节在运动范围内弯曲时,每个目标的位置都会被跟踪,胫骨和股骨的姿态也会被跟踪。此数据用于生成内侧和外侧松弛度的曲线图作为屈曲角度的函数。此信息用于计算远端股骨切割块定位销的理想定位,以实现膝关节的运动范围内的平衡,或引导用户去除骨赘或执行软组织释放,从而使膝关节在其运动范围内平衡。此曲线图可以如图48所示显示在MXUI中,其中第一三维弧4802表示在膝关节的运动范围内的内侧松弛,并且第二三维弧4804表示在膝关节的运动范围内的外侧松弛。实际膝关节的当前屈曲角度的数值可以显示为虚拟文本4806。
VII.其它医疗程序
参考图10,本发明进一步提供了一种使用系统10执行其它外科手术程序的方法(下面提供了具体实例)。所述方法包含数据收集(1000),所述数据收集包含但不限于跟踪和识别视觉标记和IMU。此数据用于确定多个物品在工作视图中的相对和/或绝对朝向和位置(1002)。将外部数据(1004)引入算法。使用算法来处理特定用例的数据(1006)并且确定所需的输出(1008)。将此数据用于增强现实AR或虚拟现实VR输出显示器(1010)中,以辅助医学专业人员。
例如,所述方法可以用于全髋关节成形术。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000)和确定髋关节以及外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于用于修改设置的组件定位、股骨头切割、髋臼定位、螺钉放置、腿部长度确定以及良好的骨骼在髋臼中的定位。
所述方法还可以用于全膝关节成形术。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000)和确定膝关节、胫骨以及外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于胫骨切割的定位、角度和斜率、引导器的放置和微调、避免髓内引导以及股骨切割的改善。
所述方法可以用于远端桡骨骨折的畸形愈合的校正型切骨术。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描数据组合以确定畸形愈合以及外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于切骨术的定位、切割角度和结果评估。
所述方法可以用于具有骨折的臂骨的畸形愈合的校正型切骨术,所述臂骨包含肱骨、远端肱骨、桡骨和尺骨,所述骨折可能是复杂的并且涉及角度校正和旋转校正。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描数据组合以确定畸形愈合以及外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于切骨部位的定位、切割角度、校正程度和结果评估。
所述方法可以用于远端股骨切骨术和近端胫骨切骨术,以校正早期骨关节炎和错位。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描数据或长腿x射线图像组合,以确定切骨术定位的位置和朝向(1002)以及比例和外科手术工具。算法(1006)用于确定解决方案,所述解决方案包含但不限于切骨部位的定位、切割角度、校正程度和结果评估。
所述方法可以用于髋臼发育不良的髋臼周围切骨术。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描数据组合以确定切骨术定位以及外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于切骨部位的定位、测角、校正程度和结果评估。
所述方法可以用于类似于先前的实施例的儿科矫形切骨术。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描数据组合以确定切骨术定位以及外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于切骨部位的定位、切割角度、校正程度和结果评估。
所述方法可以用于肘部韧带重构,所述肘部韧带重构包含但不限于桡骨侧副韧带重构(RCL)和UCL重构(Tommy-John)。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描或MRI数据组合以确定韧带重构以及外科手术工具的等距点的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于通道放置的精确定位和结果评估。
所述方法可以用于膝关节韧带重构,所述膝关节韧带重构包含但不限于MCL、LCL、ACL、PCL和后外侧角的重构。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描或MRI数据组合以确定韧带重构以及外科手术工具的等距点的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于通道放置的精确定位、通道深度、通道角度、植骨放置以及结果评估。
所述方法可以用于踝关节韧带重构,所述踝关节韧带重构包含但不限于用于校正不稳定性的重构。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描或MRI数据组合以确定韧带重构以及外科手术工具的等距点的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于通道放置的精确定位、通道深度、通道角度以及结果评估。
所述方法可以用于肩锁(AC)关节重构外科手术程序,所述肩锁关节重构外科手术程序包含但不限于在锁骨内而非通道内放置。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描或MRI数据组合以确定韧带重构以及外科手术工具的等距点的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于通道放置的精确定位、通道深度、通道角度以及结果评估。
所述方法可以用于包含修正TSA/RSA的解剖和反向全肩关节置换(TSA和RSA)外科手术程序。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描或MRI数据组合以确定肱骨头、相关界标以及外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于肱骨头切割的精确定位和关节窝骨的放置、基板和螺钉,以及铰孔角和用于关节窝的校正的引导器的放置以及结果评估。
所述方法可以用于全踝关节成形术外科手术程序。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描或MRI数据组合以确定胫骨、腓骨、距骨、舟骨以及其它相关界标和外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于胫骨头切割的精确定位、解剖轴确定以及结果评估。
所述方法可以用于针对骨盆骨折、胫骨坪、髋臼和骨盆(但不限于这些区域)的经皮螺钉放置。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描或MRI数据组合以确定解剖和其它相关界标以及包含螺钉的外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于骨骼收纳螺钉的精确定位、要避免的周围解剖体和软组织特征、螺钉的定位、插入角度、插入深度以及结果评估。
所述方法可以用于对包含但不限于踝关节、膝关节、髋关节、肩部和脊柱的区域进行室内注射。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描或MRI数据组合以确定相关界标和外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于注射位置的精确定位、测角和深度,以使效果最大化并最小化与内部器官和解剖体的相互作用。
所述方法可以用于包含腰椎和胸椎(但不限于这些区域)的脊柱融合程序的椎弓根螺钉放置。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描或MRI数据组合以确定解剖和其它相关界标以及包含螺钉的外科手术工具的位置和朝向(1002)。算法(1006)用于确定解决方案,所述解决方案包含但不限于骨骼收纳螺钉的精确定位、皮层的打开、颅尾测角或类似测角、中外侧倾斜、螺钉插入轨迹、插入深度以及结果评估。
所述方法可以用于使频谱交替光谱图像可视化,所述交替光谱图像包含但不限于红外线、紫外线、踝关节、膝关节、髋关节、肩部和脊柱。
解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以包含但不限于一个或多个双色相机,所述一个或多个双色相机具有交替光谱灵敏度和/或用于突出患者的特征的注射染料,以确定相关界标和外科手术工具的位置和朝向(1002);以及在包含神经、肿瘤、软组织和动脉的交替光谱中更容易可见的解剖特征的位置、定位和类型。算法(1006)用于确定解决方案,所述解决方案包含但不限于可以通过此技术增强的神经、肿瘤、所关注的软组织、动脉和所关注的其它特征的精确定位。
所述方法可以用于肿瘤诊断程序、分期程序以及治愈性外科手术程序。解剖界标和工具的标记(例如,100,108,110等)用于数据收集(1000),所述数据收集可以与术前CT扫描或MRI数据组合以确定肿瘤定位和外科手术工具的位置和朝向(1002)。可替代地,在诊断性外科手术期间,可以执行肿瘤相对于解剖界标的定位。算法(1006)用于确定解决方案,所述解决方案包含但不限于肿瘤部位的定位和大小范围、移除指南以及结果评估。
所述方法可以用于将可见或不可见的但相机可见的光点投射到能视域中所关注的对象上,所述对象包含但不限于骨骼界标、神经、肿瘤以及其它器官对象和非器官对象。标记(例如,100,108,110等)用于增加或取代解剖数据的外部数据集,并且可以如之前已经描述的用于代替物理指针或工具。光点可以从用户的头部显示器或其它位置显示。光点也可以表现为光的图案或其它阵列。这些光使显示患者上的特征突出,以确定相关界标和外科手术工具的位置和朝向(1002),以及增强数据集,所述数据集包含但不限于荧光透视、CT扫描和MRI数据。算法(1006)用于确定先前描述的但具有替代性的或增加的选择项的解决方案。
所述方法可以用于以微创方式定位植入物并且经皮插入锁紧螺钉。标记(例如,100,108或110等)安装在髓内钉的近端。另一个标记(例如,100,108或110等)安装在十字螺钉插入工具上。钉的虚拟模型显示为包含锁定十字螺钉的目标轨迹。外科医生通过将虚拟十字螺钉与目标轨迹对准能够插入十字螺钉。在另一个实施例中,相同的方法可以应用于外部固定板。在这种情况下,将显示具有多个锁定螺钉轨迹的虚拟锁定板,每个孔一个虚拟锁定螺钉轨迹。
VIII.可跟踪仪器和设备的数据库
本发明任选地包含构建仪器和设备的电子数据库,以允许AR头戴设备3600标识那些仪器存在于外科手术领域或手术室区域。参考图29,序列化跟踪标签2900任选地包含在系统中以促进此类数据库的构建。序列化跟踪标签2900包含机器可读序列号代码2902、人类可读序列号2904以及一组光学特征(如多个基准2906),所述一组光学特征促进六自由度光学姿态跟踪。在一个实施例中,机器可读数字代码2902图案可以通过AR头戴设备3600的一个或多个相机3904成像,并且单独用于使用机器视觉算法确定医疗仪器的姿态和位置。在另一个实施例中,序列号图像2904可以通过一个或多个相机3904成像,并且单独用于使用机器视觉算法确定医疗仪器的姿态和定位。在又另一个实施例中,跟踪标签2900的整个物理模型可以通过一个或多个相机3904成像,并且单独用于使用机器视觉算法确定医疗仪器的姿态和定位。在另一个实施例中,跟踪标签2900可以包含或含有RFID标签,所述无线RFID标签用于对套件中的然后可以使用光学识别自动验证的设备进行非光学标识。
参考图30,提供了示出了系统的流程图,所述系统用于使用增强现实头戴设备对设备的物品类型与物理参数进行配准并且存储和共享此数据,以用于在外科手术所中使用。在此示例性实施例中,序列化跟踪标签预打印在耐用自粘材料上。在外科手术程序期间或程序的准备工作(即,后台操作)中最有利地进行查看的定位中,将标签附接(3002)到设备(3000)的物品上,所述物品可以是但不限于C型臂、撞击器、指针或在程序中使用的任何其它设备。然后,通过用一个或多个相机3904查看、标识标签并且启动与此序列号相关联的数据库记录来对标签(3004)进行配准。还可以对与设备的物品相关联的所关注的几何形状(3006)进行配准,并且将其相对于可追踪贴纸存储。例如,在C型臂的情况下,可以使用配准触针对成像器的表面周边的三个点和代表X射线束源的原点的点进行配准。所述配准提供了X射线束源相对于AR头戴设备3600坐标系的坐标系、朝向(姿态)数据和位置数据,以供AR头戴设备3600的算法使用。在另一个替代性实施例中,相机3904是立体相机,并且用于通过识别如成像器的圆柱形表面或矩形表面等关键特征来扫描和识别C型臂的几何形状。设备的物品的另外的相关规格(3008)可以输入到记录中,并且所述规格包含但不限于设备类型和型号、校准到期日、电子接口参数以及无线连接密码。使用一个或多个相机3904捕获装置的图像3010。捕获装置的设备标签的图像(3012)。将所有这些物品都添加到完成的记录中(3014),所述记录当前在AR头戴设备3600的本地。然后,为记录加时间戳并且将其与中央数据库共享(3016)。此记录可以通过互连网定位在医院系统内的本地服务器上,或者位于包含任何基于云的存储的任何远程服务器中。数据库的上传可以通过Wi-Fi公共网络协议或其它本领域所公开的装置来进行。上述行动可以由公司代表、医院雇用的技术人员或任何其它经过培训的个人执行。为了防止配准不良的设备进入数据库,可能需要管理员权限来捕获记录。
当在外科手术中使用设备的物品时,利用一个或多个相机3904对标签进行识别作为设备的可跟踪物品并且读取序列号(3018)。然后,AR头戴设备3600可以连接到数据库(3020)并且下载设备记录(3022)。因此,在外科手术期间,可以以六自由度的可跟踪方式使用设备(3024)。如果适用,对于具有数据标签的设备而言,还可以用特定于设备本身的数据更新记录(3026),例如,上传外科手术期间由设备捕获的图像,或捕获日志中的在外科手术期间的设备活动的日志。可以将描述设备在外科手术中的使用的日志条目添加到数据库和示出设备的利用情况的患者记录中。可以对因此生成的数据库进行挖掘,用于各种原因,如检索缺陷设备的使用。
系统也可以用于识别外科手术仪器和在外科手术期间遇到的植入物。将仪器和设备的用于缩放的CAD模型的数据库保持在存储器中。在程序期间,SLAM或类似的机器视觉算法可以捕获物品在场景中的形貌,并且与仪器和设备上的数据库进行比较。如果找到匹配,那么系统可以采取适当的措施,如跟踪仪器相对于患者和外科手术中正在使用的其它仪器的位置和朝向,或进入与此仪器的使用相关的模式。例如,在髋关节置换程序中,如果检测到髋臼撞击器,则进入杯放置导航模式。
尽管本文已经参考优选实施例以及其具体实例说明和描述本发明,但是对于本领域的普通技术人员而言将显而易见的是,其它实施例和实例可以执行类似的功能和/或实现类似的结果。所有此类等同的实施例和实例都处于本发明的精神和范围内,由此被设想,并且旨在被以下权利要求书所覆盖。
除非另有说明,否者本文描绘的各个结构的尺寸和几何形状不旨在限制本发明,并且其它尺寸或几何形状是可能的。可以通过单个集成结构提供多个结构组件。可替代地,单一集成结构可以被分成单独的多个组件。此外,虽然本发明的特征可能已经仅在所示实施例之一的上下文中进行描述,但是对于任何给定的应用,这种特征可以与其它实施例的一个或多个其它特征组合。还可以从上文理解,本文的独特结构的制造以及其操作还构成根据本发明的方法。

Claims (18)

1.一种外科手术导航系统,其包括:
头戴式显示装置,所述头戴式显示装置由用户在外科手术程序期间佩戴,所述头戴式显示装置包括处理器单元、显示生成器、传感器套件,所述传感器套件具有至少一个跟踪相机或深度传感器,其中:
所述处理单元用从所述传感器套件接收的数据创建解剖对象的暴露表面的参考表面图;
所述处理单元针对所述参考表面图建立相对于所述传感器套件的参考系;
所述参考系的朝向通过创建所述解剖对象的其它解剖学特征的另外的表面图来建立;
所述处理单元通过以下操作跟踪所述解剖对象相对于所述头戴式显示装置的姿态:(i)创建所述暴露表面的移位表面图以及(ii)使所述移位表面图和参考系旋转和平移,以实现与所述参考表面图的最佳拟合。
2.根据权利要求1所述的外科手术导航系统,其中所述处理单元与所述头戴式显示器通信以提供混合现实用户界面,所述混合现实用户界面包括外科手术工具或植入物相对于所述解剖对象的期望特征在用户的视野中的立体虚拟图像。
3.根据权利要求1或权利要求2所述的外科手术导航系统,其中所述外科手术程序是髋关节成形术,所述解剖对象是股骨,并且所述暴露表面包含所述股骨的小转子。
4.根据权利要求3所述的外科手术导航,其中所述其它解剖学特征选自由以下组成的组:股骨头、股骨颈、小腿和其组合。
5.根据权利要求1或权利要求2所述的外科手术导航系统,其中所述外科手术程序是膝关节成形术,所述解剖对象是胫骨,并且所述暴露表面包含所述胫骨的前内侧。
6.根据权利要求5所述的外科手术导航系统,其中所述其它解剖学特征选自由以下组成的组:胫骨坪、小腿、足背表面和其组合。
7.根据权利要求1或权利要求2所述的外科手术导航系统,其中所述外科手术程序是膝关节成形术,所述解剖对象是股骨,并且所述暴露表面包含所述股骨的远端部分的前内侧。
8.根据权利要求7所述的外科手术导航系统,其中所述其它解剖学特征选自由以下组成的组:滑车上的最远端点、股骨髁、后髁、上髁、小腿和其组合。
9.一种使用头戴式外科手术导航系统进行髋关节成形术程序的方法,其包括:
提供头戴式外科手术导航系统,所述头戴式外科手术导航系统包括显示装置,所述显示装置包括处理器单元、显示生成器、传感器套件,所述传感器套件具有至少一个跟踪相机或深度传感器;
将所述头戴式外科手术导航系统附接到用户的头部;
用所述传感器套件创建小转子的参考表面图以及股骨头和小腿的另外的表面图;
基于所述参考表面图和所述另外的表面图,建立所述股骨相对于所述传感器套件的参考系;
创建所述小转子的移位表面图;以及
通过将所述移位表面图与所述参考表面图进行比较来跟踪所述股骨相对于所述传感器套件的姿态。
10.根据权利要求9所述的方法,其进一步包括:
创建经过置换的股骨头的表面图;以及
通过将所述经过置换的股骨头的所述表面图与所述股骨头的所述另外的表面图中的至少一个表面图进行比较来测量所述股骨头的变化。
11.根据权利要求10所述的方法,其进一步包括测量股骨偏移的变化。
12.根据权利要求10所述的方法,其进一步包括测量由于所述股骨头在所述股骨的所述参考系中的位置的变化引起的腿部长度的变化。
13.根据权利要求9所述的方法,其进一步包括:
创建髋臼的参考表面图;
创建所述髋臼的经过置换的髋臼植入物的置换表面图;以及
通过将所述髋臼的所述置换表面图与所述参考表面图进行比较来测量所述髋臼的位置的变化。
14.一种在膝关节外科手术期间使用头戴式外科手术导航系统来跟踪选自由股骨和胫骨组成的组的解剖对象的方法,其包括:
提供头戴式外科手术导航系统,所述头戴式外科手术导航系统包括显示装置,所述显示装置包括处理器单元、显示生成器和传感器套件,所述传感器套件具有至少一个跟踪相机或深度传感器;
将所述头戴式外科手术导航系统附接到用户的头部;
用所述传感器套件创建所述解剖对象的暴露部分的参考表面图;
基于所述参考表面图为所述解剖对象建立参考系;
创建所述解剖对象的暴露部分的移位表面图;以及
通过将所述移位表面图与所述参考表面图进行比较来跟踪所述解剖对象相对于所述传感器套件的姿态。
15.根据权利要求14所述的方法,其中所述解剖对象是所述股骨,并且所述参考系通过以下操作与所述股骨的轴对准:
创建所述股骨的远端表面的表面图;
分析所述表面图以建立所述股骨的所述远端表面的中心;
在跟踪所述股骨的姿态的同时使所述股骨在运动范围内移动,以确定所述股骨的旋转中心;以及
将参考系的轴与线对准,所述线将所述股骨的所述远端表面的所述中心结合到所述股骨的所述旋转中心。
16.根据权利要求14所述的方法,其中在使用所述股骨的暴露远端部分和胫骨或小腿的暴露近端部分跟踪所述股骨和胫骨的同时,通过使膝关节弯曲将所述参考系与所述股骨的轴对准,以建立所述膝关节的屈曲轴。
17.根据权利要求14所述的方法,其中所述解剖对象是所述胫骨,并且所述参考系通过以下操作与所述胫骨的机械轴对准:
创建所述胫骨的近端表面的表面图;
分析所述表面图以建立所述胫骨的所述近端表面的中心;
在扫描脚的表面和所述胫骨的暴露近端部分的同时,使踝关节弯曲,以确定所述踝关节绕所述胫骨的旋转中心。
18.根据权利要求17所述的方法,其中在扫描股骨的暴露远端部分和所述胫骨或小腿的所述暴露近端部分的同时通过使所述膝关节弯曲将所述参考系与所述膝关节的横轴对准,以建立所述膝关节的屈曲轴。
CN201880050889.0A 2016-08-16 2018-02-15 用于医疗程序中的感觉增强系统和方法 Active CN111031954B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311416231.6A CN117752414A (zh) 2016-08-16 2018-02-15 用于医疗程序中的感觉增强系统和方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201662375483P 2016-08-16 2016-08-16
USPCT/US17/046438 2017-08-11
PCT/US2017/046438 WO2018063528A1 (en) 2016-08-16 2017-08-11 Systems for sensory augmentation in medical procedures
US15/674,749 US20180049622A1 (en) 2016-08-16 2017-08-11 Systems and methods for sensory augmentation in medical procedures
US15/674,749 2017-08-11
PCT/US2018/018330 WO2019032143A1 (en) 2016-08-16 2018-02-15 SYSTEMS AND METHODS FOR SENSORY REINFORCEMENT DURING MEDICAL INTERVENTIONS

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202311416231.6A Division CN117752414A (zh) 2016-08-16 2018-02-15 用于医疗程序中的感觉增强系统和方法

Publications (2)

Publication Number Publication Date
CN111031954A true CN111031954A (zh) 2020-04-17
CN111031954B CN111031954B (zh) 2023-11-14

Family

ID=59702853

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201880050889.0A Active CN111031954B (zh) 2016-08-16 2018-02-15 用于医疗程序中的感觉增强系统和方法
CN202311416231.6A Pending CN117752414A (zh) 2016-08-16 2018-02-15 用于医疗程序中的感觉增强系统和方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202311416231.6A Pending CN117752414A (zh) 2016-08-16 2018-02-15 用于医疗程序中的感觉增强系统和方法

Country Status (6)

Country Link
US (1) US20180049622A1 (zh)
EP (1) EP3654867B1 (zh)
JP (2) JP2019534717A (zh)
CN (2) CN111031954B (zh)
AU (2) AU2018316092B2 (zh)
WO (2) WO2018063528A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113317876A (zh) * 2021-06-07 2021-08-31 上海盼研机器人科技有限公司 一种基于增强现实的颅颌面骨折修复导航系统
CN113476140A (zh) * 2021-08-10 2021-10-08 贺世明 一种增强现实辅助下脊柱内固定螺钉植入方法和系统
CN113679447A (zh) * 2021-07-20 2021-11-23 国家康复辅具研究中心 一种用于股骨远端截骨术的导航模板及其设计方法
CN113842227A (zh) * 2021-09-03 2021-12-28 上海涞秋医疗科技有限责任公司 医疗辅助三维模型定位匹配方法、系统、设备及介质
CN116487074A (zh) * 2023-06-20 2023-07-25 四川省医学科学院·四川省人民医院 一种基于5g的远程医疗辅助方法、装置及其系统
WO2023165568A1 (en) * 2022-03-02 2023-09-07 Fu Jen Catholic University Surgical navigation system and method thereof

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109331311B (zh) 2013-03-15 2022-10-11 通用医疗公司 一氧化氮的吸气合成
CN105745392B (zh) * 2013-12-10 2018-08-14 哈利伯顿能源服务公司 用于放置切削元件的连续现场跟踪系统
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2016154557A1 (en) 2015-03-26 2016-09-29 Universidade De Coimbra Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera
EP3284252B1 (en) 2015-04-13 2021-07-21 Universidade De Coimbra Methods and systems for camera characterization in terms of response function, color, and vignetting under non-uniform illumination
KR20180071328A (ko) * 2015-11-16 2018-06-27 씽크 써지컬, 인크. 추적된 뼈의 정합을 확인하기 위한 방법
CN109310476B (zh) 2016-03-12 2020-04-03 P·K·朗 用于手术的装置与方法
RU2768488C2 (ru) 2016-03-25 2022-03-24 Дзе Дженерал Хоспитал Корпорейшн Системы доставки и способы для электрического плазменного синтеза оксида азота
US10398514B2 (en) 2016-08-16 2019-09-03 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
US11071596B2 (en) 2016-08-16 2021-07-27 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
WO2018132804A1 (en) * 2017-01-16 2018-07-19 Lang Philipp K Optical guidance for surgical, medical, and dental procedures
EP4163253A1 (en) 2017-02-27 2023-04-12 Third Pole, Inc. Systems and methods for generating nitric oxide
MX2020010523A (es) 2017-02-27 2021-02-09 Third Pole Inc Sistemas y metodos para generar oxido nitrico.
EP3585727B1 (en) 2017-02-27 2022-03-16 Third Pole, Inc. Systems and methods for ambulatory generation of nitric oxide
EP4278956A3 (en) 2017-03-10 2024-02-21 Biomet Manufacturing, LLC Augmented reality supported knee surgery
EP3596657A4 (en) 2017-03-14 2021-01-13 Universidade De Coimbra SYSTEMS AND METHODS FOR 3D REGISTRATION OF CURVES AND SURFACES USING VARIOUS LOCAL INFORMATION
CN110475562A (zh) 2017-03-31 2019-11-19 通用医疗公司 用于冷却一氧化氮发生器的系统和方法
EP3470006B1 (en) 2017-10-10 2020-06-10 Holo Surgical Inc. Automated segmentation of three dimensional bony structure images
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
WO2019040493A1 (en) * 2017-08-21 2019-02-28 The Trustees Of Columbia University In The City Of New York SYSTEMS AND METHODS FOR AUGMENTED REALITY GUIDANCE
US11801114B2 (en) 2017-09-11 2023-10-31 Philipp K. Lang Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion
US11043031B2 (en) * 2017-10-20 2021-06-22 Google Llc Content display property management
WO2019094874A1 (en) 2017-11-10 2019-05-16 Smith & Nephew, Inc. Orthopedic systems, components, and methods
US11944272B2 (en) * 2017-12-07 2024-04-02 Medtronic Xomed, Inc. System and method for assisting visualization during a procedure
WO2019148154A1 (en) 2018-01-29 2019-08-01 Lang Philipp K Augmented reality guidance for orthopedic and other surgical procedures
EP3528210A1 (en) * 2018-02-14 2019-08-21 Koninklijke Philips N.V. An imaging system and method with stitching of multiple images
CN110555358B (zh) * 2018-06-01 2023-09-12 苹果公司 用于检测和识别ar/vr场景中的特征部的方法和设备
CN108742898B (zh) * 2018-06-12 2021-06-01 中国人民解放军总医院 基于混合现实的口腔种植导航系统
CN112584791A (zh) * 2018-06-19 2021-03-30 托尼尔公司 用于诊断肩部疾患的神经网络
US10410542B1 (en) 2018-07-18 2019-09-10 Simulated Inanimate Models, LLC Surgical training apparatus, methods and systems
EP3608870A1 (en) 2018-08-10 2020-02-12 Holo Surgical Inc. Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure
WO2020072328A1 (en) * 2018-10-02 2020-04-09 Convergascent Llc Endoscope with inertial measurement units and/or haptic input controls
EP3640767A1 (de) * 2018-10-17 2020-04-22 Siemens Schweiz AG Verfahren zum bestimmen mindestens eines bereichs in mindestens einem eingabemodell für mindestens ein zu platzierendes element
US20200129241A1 (en) * 2018-10-30 2020-04-30 Think Surgical, Inc. Surgical markers for robotic surgery with reduced bone penetration
KR102270170B1 (ko) * 2018-11-14 2021-06-25 임승준 증강 현실을 이용한 수술 보조 장치
US11000382B1 (en) * 2018-11-15 2021-05-11 Little Engine, LLC Apparatus and method for joint characterization and treatment
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10939977B2 (en) 2018-11-26 2021-03-09 Augmedics Ltd. Positioning marker
US20200170751A1 (en) * 2018-11-30 2020-06-04 Think Surgical, Inc. System and method for fiducial attachment for orthopedic surgical procedures
US20220054195A1 (en) * 2018-12-12 2022-02-24 Howmedica Osteonics Corp. Soft tissue structure determination from ct images
EP3897346A4 (en) * 2019-01-23 2022-09-28 Proprio, Inc. ALIGNMENT OF PREOPERATIVE SCAN IMAGES WITH REAL-TIME OPERATIVE IMAGES FOR A MEDIATED REALITY VIEW OF A SURGICAL SITE
US11810473B2 (en) 2019-01-29 2023-11-07 The Regents Of The University Of California Optical surface tracking for medical simulation
US11495142B2 (en) 2019-01-30 2022-11-08 The Regents Of The University Of California Ultrasound trainer with internal optical tracking
WO2020157985A1 (ja) * 2019-02-01 2020-08-06 TCC Media Lab株式会社 合成画像生成システム及び初期条件リセットシステム
US11553969B1 (en) 2019-02-14 2023-01-17 Onpoint Medical, Inc. System for computation of object coordinates accounting for movement of a surgical site for spinal and other procedures
US11857378B1 (en) 2019-02-14 2024-01-02 Onpoint Medical, Inc. Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets
CN109820590B (zh) * 2019-02-15 2024-04-12 中国人民解放军总医院 一种骨盆骨折复位智能监控系统
US11628016B2 (en) 2019-02-20 2023-04-18 OperVu, Inc. System and method to detect and track surgical instruments and/or surgical material
US11045620B2 (en) 2019-05-15 2021-06-29 Third Pole, Inc. Electrodes for nitric oxide generation
US11479464B2 (en) 2019-05-15 2022-10-25 Third Pole, Inc. Systems and methods for generating nitric oxide
JP7296254B2 (ja) * 2019-06-07 2023-06-22 株式会社モリタ マーカー取付け器具、及びマーカー取付け器具の取付け方法
CA3156036A1 (en) * 2019-09-26 2021-04-01 Stryker European Operations Limited TRACKING DEVICE FOR SURGICAL INSTRUMENT
US11426178B2 (en) 2019-09-27 2022-08-30 Globus Medical Inc. Systems and methods for navigating a pin guide driver
US11864857B2 (en) 2019-09-27 2024-01-09 Globus Medical, Inc. Surgical robot with passive end effector
US11890066B2 (en) 2019-09-30 2024-02-06 Globus Medical, Inc Surgical robot with passive end effector
EP3819699B1 (en) * 2019-11-08 2024-02-21 Leica Instruments (Singapore) Pte. Ltd. Optical system and corresponding apparatus, method and computer program
DE102019132308A1 (de) * 2019-11-28 2021-06-02 Carl Zeiss Meditec Ag Optisches Beobachtungssystem mit kontaktloser Zeigeeinheit, Betriebsverfahren und Computerprogrammprodukt
WO2021113095A1 (en) * 2019-12-03 2021-06-10 Tornier, Inc. Targeting tool for virtual surgical guidance
KR102362149B1 (ko) * 2019-12-06 2022-02-10 서울대학교산학협력단 임플란트 수술을 위한 증강현실 도구 및 임플란트 수술정보 가시화 방법
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
KR102221898B1 (ko) * 2019-12-30 2021-03-03 주식회사 버넥트 가이드 도구 기반의 가상 객체 시각화 방법
WO2021230834A1 (en) * 2019-12-31 2021-11-18 Havelsan Hava Elektronik Sanayi Ve Ticaret Anonim Sirketi Tool-independent 3-dimensional surface haptic interface
WO2021142472A1 (en) 2020-01-11 2021-07-15 Third Pole, Inc. Systems and methods for nitric oxide generation with humidity control
JP2023513692A (ja) * 2020-02-10 2023-04-03 インサイト メディカル システムズ インコーポレイテッド 医療処置における感覚拡張の為のシステム及び方法
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
FR3107449B1 (fr) * 2020-02-20 2022-01-21 One Ortho Système de guidage en réalité augmentée d’une opération chirurgicale d’une partie d’articulation d’un os
EP3882682A1 (en) 2020-03-20 2021-09-22 Leica Instruments (Singapore) Pte. Ltd. Illumination system, system, method and computer program for a microscope system
AU2021263126A1 (en) 2020-04-29 2022-12-01 Future Health Works Ltd. Markerless navigation using AI computer vision
US20210346117A1 (en) * 2020-05-06 2021-11-11 Howmedica Osteonics Corp. Registration marker with anti-rotation base for orthopedic surgical procedures
US20210346093A1 (en) * 2020-05-06 2021-11-11 Warsaw Orthopedic, Inc. Spinal surgery system and methods of use
US11931267B2 (en) * 2020-05-15 2024-03-19 Jeffrey Wilde Joint implant extraction and placement system and localization device used therewith
CN111631814B (zh) * 2020-06-11 2024-03-29 上海交通大学医学院附属第九人民医院 术中血管立体定位导航系统及方法
US11389252B2 (en) 2020-06-15 2022-07-19 Augmedics Ltd. Rotating marker for image guided surgery
EP4167920A1 (en) 2020-06-18 2023-04-26 Third Pole, Inc. Systems and methods for preventing and treating infections with nitric oxide
US11571225B2 (en) * 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
RU2754288C1 (ru) * 2020-10-06 2021-08-31 Владимир Михайлович Иванов Способ подготовки и выполнения хирургической операции на голове с использованием смешанной реальности
US11164391B1 (en) * 2021-02-12 2021-11-02 Optum Technology, Inc. Mixed reality object detection
US11210793B1 (en) 2021-02-12 2021-12-28 Optum Technology, Inc. Mixed reality object detection
EP4304490A1 (en) 2021-03-10 2024-01-17 Onpoint Medical, Inc. Augmented reality guidance for imaging systems and robotic surgery
US20220331008A1 (en) 2021-04-02 2022-10-20 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
WO2023021451A1 (en) * 2021-08-18 2023-02-23 Augmedics Ltd. Augmented reality assistance for osteotomy and discectomy
CN113786228B (zh) * 2021-09-15 2024-04-12 苏州朗润医疗系统有限公司 一种基于ar增强现实的辅助穿刺导航系统
US11612421B1 (en) 2021-09-20 2023-03-28 Little Engine, LLC Tensioner-balancer for knee joint
US11600053B1 (en) * 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
US20230240405A1 (en) * 2022-02-02 2023-08-03 Ted Spooner Mixed reality surgical helmet
CN114451997B (zh) * 2022-03-08 2023-11-28 长春理工大学 一种解决光学遮挡的手术导航装置及导航方法
US11602443B1 (en) 2022-06-07 2023-03-14 Little Engine, LLC Knee evaluation and arthroplasty method
US11612503B1 (en) 2022-06-07 2023-03-28 Little Engine, LLC Joint soft tissue evaluation method
US11642118B1 (en) 2022-06-07 2023-05-09 Little Engine, LLC Knee tensioner-balancer and method
WO2023249876A1 (en) * 2022-06-20 2023-12-28 Smith & Nephew, Inc. Systems and methods for navigated reaming of the acetabulum
CN115363751B (zh) * 2022-08-12 2023-05-16 华平祥晟(上海)医疗科技有限公司 术中解剖结构指示方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080013809A1 (en) * 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
US20080319491A1 (en) * 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US20130237811A1 (en) * 2012-03-07 2013-09-12 Speir Technologies Inc. Methods and systems for tracking and guiding sensors and instruments
US20160000518A1 (en) * 2013-02-11 2016-01-07 Neomedz Sàrl Tracking apparatus for tracking an object with respect to a body
US20160191887A1 (en) * 2014-12-30 2016-06-30 Carlos Quiles Casas Image-guided surgery with surface reconstruction and augmented reality visualization
US20160225192A1 (en) * 2015-02-03 2016-08-04 Thales USA, Inc. Surgeon head-mounted display apparatuses

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6891518B2 (en) * 2000-10-05 2005-05-10 Siemens Corporate Research, Inc. Augmented reality visualization device
WO2002029700A2 (en) * 2000-10-05 2002-04-11 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
WO2002062250A1 (de) * 2001-02-07 2002-08-15 Synthes Ag Chur Vorrichtung und verfahren für die intraoperative navigation
US6584339B2 (en) * 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
US20050281465A1 (en) * 2004-02-04 2005-12-22 Joel Marquart Method and apparatus for computer assistance with total hip replacement procedure
US7774044B2 (en) * 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
GB0405792D0 (en) * 2004-03-15 2004-04-21 Univ Catholique Louvain Augmented reality vision system and method
EP1841372B1 (en) * 2005-01-26 2017-09-13 Orthosoft Inc. Computer-assisted hip joint resurfacing method and system
US7937775B2 (en) * 2005-08-09 2011-05-10 Microtek Medical, Inc. Surgical protective head gear assembly including high volume air delivery system
US8020552B2 (en) * 2007-02-26 2011-09-20 Microtek Medical, Inc. Helmets and methods of making and using the same
WO2013116694A1 (en) * 2012-02-03 2013-08-08 The Trustees Of Dartmouth College Method and apparatus for determining tumor shift during surgery using a stereo-optical three-dimensional surface-mapping system
US20140031668A1 (en) * 2010-09-08 2014-01-30 Disruptive Navigational Technologies, Llc Surgical and Medical Instrument Tracking Using a Depth-Sensing Device
JP6104902B2 (ja) * 2011-06-22 2017-03-29 シンセス・ゲーエムベーハーSynthes GmbH 位置決定用超音波ct位置合わせ
WO2013071437A1 (en) * 2011-11-15 2013-05-23 Macdonald Dettwiler & Associates Inc. Method of real-time tracking of moving/flexible surfaces
US20140022283A1 (en) * 2012-07-20 2014-01-23 University Health Network Augmented reality apparatus
JP6155614B2 (ja) * 2012-12-13 2017-07-05 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US10070929B2 (en) * 2013-06-11 2018-09-11 Atsushi Tanji Surgical operation support system, surgical operation support apparatus, surgical operation support method, surgical operation support program, and information processing apparatus
US10467752B2 (en) * 2013-06-11 2019-11-05 Atsushi Tanji Bone cutting support system, information processing apparatus, image processing method, and image processing program
CN105451802B (zh) * 2013-08-15 2019-04-19 直观外科手术操作公司 用于导管定位和插入的图形用户界面
AU2015274283B2 (en) * 2014-06-14 2020-09-10 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
WO2017185170A1 (en) * 2016-04-28 2017-11-02 Intellijoint Surgical Inc. Systems, methods and devices to scan 3d surfaces for intra-operative localization

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080013809A1 (en) * 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
US20080319491A1 (en) * 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US20130237811A1 (en) * 2012-03-07 2013-09-12 Speir Technologies Inc. Methods and systems for tracking and guiding sensors and instruments
US20160000518A1 (en) * 2013-02-11 2016-01-07 Neomedz Sàrl Tracking apparatus for tracking an object with respect to a body
US20160191887A1 (en) * 2014-12-30 2016-06-30 Carlos Quiles Casas Image-guided surgery with surface reconstruction and augmented reality visualization
US20160225192A1 (en) * 2015-02-03 2016-08-04 Thales USA, Inc. Surgeon head-mounted display apparatuses

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113317876A (zh) * 2021-06-07 2021-08-31 上海盼研机器人科技有限公司 一种基于增强现实的颅颌面骨折修复导航系统
CN113679447A (zh) * 2021-07-20 2021-11-23 国家康复辅具研究中心 一种用于股骨远端截骨术的导航模板及其设计方法
CN113679447B (zh) * 2021-07-20 2023-02-28 国家康复辅具研究中心 一种用于股骨远端截骨术的导航模板及其设计方法
CN113476140A (zh) * 2021-08-10 2021-10-08 贺世明 一种增强现实辅助下脊柱内固定螺钉植入方法和系统
CN113842227A (zh) * 2021-09-03 2021-12-28 上海涞秋医疗科技有限责任公司 医疗辅助三维模型定位匹配方法、系统、设备及介质
CN113842227B (zh) * 2021-09-03 2024-04-05 上海涞秋医疗科技有限责任公司 医疗辅助三维模型定位匹配方法、系统、设备及介质
WO2023165568A1 (en) * 2022-03-02 2023-09-07 Fu Jen Catholic University Surgical navigation system and method thereof
CN116487074A (zh) * 2023-06-20 2023-07-25 四川省医学科学院·四川省人民医院 一种基于5g的远程医疗辅助方法、装置及其系统
CN116487074B (zh) * 2023-06-20 2023-08-18 四川省医学科学院·四川省人民医院 一种基于5g的远程医疗辅助方法、装置及其系统

Also Published As

Publication number Publication date
EP3654867A1 (en) 2020-05-27
WO2018063528A1 (en) 2018-04-05
AU2018316092A1 (en) 2020-03-12
JP2019534717A (ja) 2019-12-05
JP2022116157A (ja) 2022-08-09
CN117752414A (zh) 2024-03-26
AU2018316092B2 (en) 2022-06-23
WO2019032143A1 (en) 2019-02-14
CN111031954B (zh) 2023-11-14
EP3654867B1 (en) 2024-05-01
AU2022204673A1 (en) 2022-08-11
US20180049622A1 (en) 2018-02-22

Similar Documents

Publication Publication Date Title
CN111031954B (zh) 用于医疗程序中的感觉增强系统和方法
US10398514B2 (en) Systems and methods for sensory augmentation in medical procedures
US11071596B2 (en) Systems and methods for sensory augmentation in medical procedures
US11602395B2 (en) Augmented reality display systems for fitting, sizing, trialing and balancing of virtual implant components on the physical joint of the patient
US10973580B2 (en) Method and system for planning and performing arthroplasty procedures using motion-capture data
JP4754215B2 (ja) コンピュータ支援膝関節形成術の器具類、システム、および方法
US20230016940A1 (en) Power tools or instruments with integrated haptic actuator for vibration reduction
JP2020511239A (ja) ナビゲーション手術における拡張現実ディスプレイのためのシステム及び方法
CN112386302A (zh) 用于无线超声跟踪和通信的超宽带定位
CN115361916A (zh) 用于在医疗程序中感觉增强的系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Texas, USA

Applicant after: Vision medical systems

Address before: California, USA

Applicant before: Vision medical systems

GR01 Patent grant
GR01 Patent grant