JP7247234B2 - 整形外科手術のための仮想チェックリスト - Google Patents

整形外科手術のための仮想チェックリスト Download PDF

Info

Publication number
JP7247234B2
JP7247234B2 JP2020571520A JP2020571520A JP7247234B2 JP 7247234 B2 JP7247234 B2 JP 7247234B2 JP 2020571520 A JP2020571520 A JP 2020571520A JP 2020571520 A JP2020571520 A JP 2020571520A JP 7247234 B2 JP7247234 B2 JP 7247234B2
Authority
JP
Japan
Prior art keywords
virtual
visualization
surgeon
surgical
orthopedic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020571520A
Other languages
English (en)
Other versions
JP2021527536A (ja
Inventor
シャウウィ、ジャン
ポルタレトスキー、セルギー
モルバン、ヤニク
カリウー、ダミアン
シモエス、バンサン・アベル・モーリス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Howmedica Osteonics Corp
Original Assignee
Howmedica Osteonics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Howmedica Osteonics Corp filed Critical Howmedica Osteonics Corp
Publication of JP2021527536A publication Critical patent/JP2021527536A/ja
Application granted granted Critical
Publication of JP7247234B2 publication Critical patent/JP7247234B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/142Surgical saws ; Accessories therefor with reciprocating saw blades, e.g. with cutting edges at the distal end of the saw blades
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1604Chisels; Rongeurs; Punches; Stamps
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1613Component parts
    • A61B17/1626Control means; Display units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1659Surgical rasps, files, planes, or scrapers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1662Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
    • A61B17/1684Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the shoulder
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1703Guides or aligning means for drills, mills, pins or wires using imaging means, e.g. by X-rays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • A61B5/1122Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1127Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/40Joints for shoulders
    • A61F2/4081Glenoid components, e.g. cups
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/60ICT specially adapted for the handling or processing of medical references relating to pathologies
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • A61B17/151Guides therefor for corrective osteotomy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1739Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body
    • A61B17/1775Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body for the foot or ankle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1739Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body
    • A61B17/1778Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body for the shoulder
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • A61B2017/00123Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation and automatic shutdown
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/258User interfaces for surgical systems providing specific settings for specific users
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/062Measuring instruments not otherwise provided for penetration depth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/067Measuring instruments not otherwise provided for for measuring angles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0801Prevention of accidental cutting or pricking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0807Indication means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/397Markers, e.g. radio-opaque or breast lesions markers electromagnetic other than visible, e.g. microwave
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/92Identification means for patients or instruments, e.g. tags coded with colour
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • A61B90/96Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/32Joints for the hip
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/38Joints for elbows or knees
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/40Joints for shoulders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/42Joints for wrists or ankles; for hands, e.g. fingers; for feet, e.g. toes
    • A61F2/4202Joints for wrists or ankles; for hands, e.g. fingers; for feet, e.g. toes for ankles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4603Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof
    • A61F2/4606Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof of wrists or ankles; of hands, e.g. fingers; of feet, e.g. toes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4603Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof
    • A61F2/4612Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof of shoulders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/40Joints for shoulders
    • A61F2002/4011Joints for shoulders including proximal or total replacement of the humerus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2002/4632Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor using computer-controlled surgery, e.g. robotic surgery
    • A61F2002/4633Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor using computer-controlled surgery, e.g. robotic surgery for selection of endoprosthetic joints or for pre-operative planning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4657Measuring instruments used for implanting artificial joints
    • A61F2002/4658Measuring instruments used for implanting artificial joints for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4657Measuring instruments used for implanting artificial joints
    • A61F2002/4668Measuring instruments used for implanting artificial joints for measuring angles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Mathematical Physics (AREA)
  • General Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Physiology (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)

Description

本特許出願は、2018年6月19日出願の米国仮特許出願番号第62/687,014号、2018年10月1日出願の米国仮特許出願番号第62/739,406号、2018年12月12日出願の米国仮特許出願番号第62/778,774号、2018年12月12日出願の米国仮特許出願番号第62/778,789号、2018年12月12日出願の米国仮特許出願番号第62/778,764号、2018年12月12日出願の米国仮特許出願番号第62/778,797号、2018年12月12日出願の米国仮特許出願番号第62/778,778号、2018年12月12日出願の米国仮特許出願番号第62/778,788号、2018年12月12日出願の米国仮特許出願番号第62/778,760号、2018年12月12日出願の米国仮特許出願番号第62/778,772号、2018年12月12日出願の米国仮特許出願番号第62/778,796号、2018年12月12日出願の米国仮特許出願番号第62/778,782号、2018年12月12日出願の米国仮特許出願番号第62/778,791号、2019年2月12日出願の米国仮特許出願番号第62/804,383号、2019年2月12日出願の米国仮特許出願番号第62/804,392号、及び、2019年2月12日出願の米国仮特許出願番号第62/804,402号の利益を主張する。
関節修復手術は、損傷した関節または罹患関節の修復及び/または置換を伴う。多くの場合、例えば、関節形成術などの関節修復手術は、患者の骨に埋め込む人工装具で損傷した関節を置き換えることを伴う。最適な手術結果を確実に得るために適切なサイズ及び形状の人口装具を適切に選択し、その人工装具を適切に配置することは、困難な場合がある。配置を支援するために、手術は、人工装具を受け入れるために損傷した骨の表面の成形と骨の切断もしくはドリルによる穴開けとを制御する手術器具の使用を伴うことが多い。
今日、関節の修復及び置換の術前計画を容易にする骨形状の3次元モデリングを使用する仮想可視化ツールを外科医は利用することができる。これらのツールは、患者の解剖学的構造に厳密に適合する手術ガイド及びインプラントを外科医が設計及び/または選択するのを支援でき、各患者の手術計画をカスタマイズすることによって手術結果を改善することができる。
本開示は、術前計画、医療インプラントの設計及び製造、術中ガイダンス、術後分析、及び/または関節修復手術の訓練及び教育を提供するための様々な技術を記載する。技術は、関節修復手術の特定のフェーズもしくは環境をサポートするために、または、関節修復手術の支援に多面的なエコシステムを提供するために個々に、または、様々な組み合わせで使用されてよい。様々な例において、本開示は、複合現実(MR)ベースの可視化を使用した、術前手術計画、術中手術計画、術中手術ガイダンス、術中手術追跡、及び術後分析の技術を記載する。いくつかの例では、本開示はまた、関節修復手術を行うための手術アイテム及び/または方法を記載する。いくつかの例では、本開示はまた、整形外科手術に関する教育を、複合現実を使用して提供するように構成された技術及び可視化デバイスを記載する。
本開示の様々な例の詳細を、添付図面と以下の説明に記載する。様々な特徴、目的及び長所は、説明、図面及び請求項から明らかとなろう。
本開示の例による、整形外科手術システムのブロック図である。 本開示の例による、複合現実(MR)システムを含む整形外科手術システムのブロック図である。 手術ライフサイクルの例示のフェーズを示すフローチャートである。 整形外科手術を支援する術前、術中、及び術後のワークフローを示すフローチャートである。 本開示の例による、複合現実(MR)システムで使用する可視化デバイスの概略図である。 本開示の例による、複合現実(MR)システムで使用する可視化デバイスの例示の構成要素を示すブロック図である。 ユーザの集合が術前フェーズで整形外科手術システムの複合現実(MR)システムを使用する例示の環境を示す概念図である。 手術ライフサイクルの術前フェーズの例示のステップを示すフローチャートである。 本開示の例による、手術症例を選択するための例示のウェルカム画面を示す。 本開示の例による、複合現実(MR)システムのユーザインタフェースのページの例を示す。 図10のユーザインタフェースのページに表示することができる情報の例である。 本開示の技術による、手術パラメータ選択を支援する例示の動作を示すフローチャートである。 図10のナビゲーションバーのアイコンの選択解除の効果を示す。 本開示の例による、図10のユーザインタフェースの様々なページに表示される拡張(Augment)手術モードウィジェットの例である。 図10のユーザインタフェースのワークフローページに表示される情報の例を示す概念図である。 Aは、本開示の例による、図10のユーザインタフェースの上腕骨切断ページの例である。B~Dは、本開示の例による、Aの上腕骨切断ページの隠れている仮想物体の例である。 本開示の例による、図10のユーザインタフェースの取付ガイドページの例である。 本開示の例による、図10のユーザインタフェースのインプラント取付ページの例である。 ユーザの集合が術中フェーズ中に整形外科手術システムのMRシステムを使用する例示の環境を示す概念図である。 肩関節修復手術の例示の段階を示すフローチャートである。 3次元仮想骨モデルを関節修復手術中の患者の観察される現実の骨構造に位置合わせする例示の技術を示す。 3次元仮想骨モデルを関節修復手術中の患者の観察される現実の骨構造に位置合わせする例示の技術を示す。 肩関節形成術の例示の位置合わせプロセスのステップを示す概念図である。 図21の肩関節形成術の例示の位置合わせプロセスの追加のステップを示す概念図である。 肩関節形成術の例示の位置合わせプロセスをさらに示す概念図である。 肩関節形成術の例示の位置合わせプロセスをさらに示す概念図である。 仮想マーカを使用した例示の位置合わせ手順を示す概念図である。 仮想マーカを使用した図25の例示の位置合わせ手順の追加のステップを示す概念図である。 本開示の例による、複合現実(MR)システムの拡張手術モードの時、ユーザが認識できる画像を示す。 複合現実(MR)システムの拡張手術モードで、外科医がインプラントコンポーネントを見ることができる仮想画像の例を示す。 複合現実(MR)システムの拡張手術モードにおいて、外科医がインプラントコンポーネントを見ることができる仮想画像の例を示す。 本開示の例による、図1の複合現実(MR)システムで採用することができる物理的マーカの例を示す。 本開示の例による、図1の複合現実(MR)システムで採用することができる物理的マーカの例を示す。 本開示の例による、図1の複合現実(MR)システムで採用することができる物理的マーカの例を示す。 本開示の例による、図1の複合現実(MR)システムで採用することができる物理的マーカの例を示す。 本開示の例による、図1の複合現実(MR)システムで採用することができる物理的マーカの例を示す。 本開示の例による、複合現実(MR)システムの拡張手術モードにおける追跡のためのプロセスフローの例である。 A~Cは、外科医が、肩関節形成術において上腕骨の上腕骨頭の切除を行い得るステップを示す。 肩関節形成術における上腕骨頭切除のための機械的ガイドを示す。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨頭への機械的ガイドの取付のための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨頭への機械的ガイドの取付のための仮想ガイダンスを提供するMRシステムを示す概念図である。 A~Dは、MRシステムが表示し得る仮想マーカの例を示す。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨頭の移植片のリーミングのための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨頭の移植片のリーミングのための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨頭の移植片のドリルによる穴開けのための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨頭の移植片のドリルによる穴開けのための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨頭の移植片の切断のための仮想ガイダンスを提供するMRシステムを示す概念図である。 A~Cは、本開示の1つまたは複数の技術による、肩関節形成術における上腕骨頭の切除のための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術において仮想ガイダンスを使用して、上腕骨頭切除のために配置される物理的ガイドを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨にパイロット穴を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨にパイロット穴を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨の測深(sounding)のための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨の穿孔(punching)のための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨の圧縮(compacting)のための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨の表面を準備するための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における上腕骨にインプラントを取り付けるための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における肩甲骨の関節窩へのガイドの取付のためにユーザに仮想ガイダンスを提供するMRシステムを示す概念図である。 肩関節形成術における関節窩に取り付けられる例示のガイドを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における関節窩をリーミングするための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における関節窩(例えば、リーミング後)に中心穴を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における関節窩(例えば、リーミング後)に中心穴を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。 キール型固定具を有する関節窩プロテーゼを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における関節窩にキール型固定位置を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における関節窩にキール型固定位置を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における関節窩にキール型固定位置を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。 ペグ型の固定具を有する関節窩プロテーゼを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における関節窩にペグ型固定位置を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における関節窩にペグ型固定位置を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。 本開示の1つまたは複数の技術による、肩関節形成術における関節窩にインプラントを取り付けるための仮想ガイダンスを提供するMRシステムを示す概念図である。 肩関節形成術における、関節窩にプロテーゼを取り付けるために使用され得るネジ及び中心ステムを示す。 肩関節形成術における、関節窩にプロテーゼを取り付けるために使用され得るネジ及び中心ステムを示す。 本開示の1つまたは複数の技術による、肩関節形成術におけるMRシステムによって提供され得る仮想ガイダンスの概念図である。 本開示の1つまたは複数の技術による、肩関節形成術におけるMRシステムによって提供され得る、二次ビューウィンドウを提供する例示的ビューの概念図である。 MRシステムが、肩関節形成術における肩甲骨に対するドリルの位置を示す図を含むグラフィック深さガイダンスを表示する概念図である。 欠損領域が対象領域を囲む例示の仮想モデルを示す概念図である。 欠損領域が対象領域を囲む例示の仮想モデルを示す概念図である。 欠損領域が対象領域を囲む例示の仮想モデルを示す概念図である。 本開示の1つまたは複数の技術による、手術における閉ループのツール制御のための例示の技術を示すフロー図である。 本開示の例に一致する医療デバイス及びデプスカメラの一部分の側面概念図である。 本開示に一致する医療デバイスの一部分の側面概念図である。 本開示の例に一致する複合現実(MR)システムと、深さ支援要素を含む例示のリーミングツールの概念斜視図である。 本開示の例に一致する深さ支援要素を含む例示のリーミングツールを使用する複合現実システムの概念斜視図である。 本開示の例に一致する例示のプロセスを示すフロー図である。 特別に設計された深さ支援要素の必要性を排除し得る別の深さ追跡の例の側面図である。 リーマに対する固定位置に取り付けられた深さ支援要素の例を示す別の側面図である。 深さ支援要素の位置を合わせる1つの例示の位置合わせプロセスを示す追加の図である。 深さ支援要素の位置を合わせる1つの例示の位置合わせプロセスを示す追加の図である。 深さ支援要素の位置を合わせる1つの例示の位置合わせプロセスを示す追加の図である。 本開示の例による、手術アイテムのセットと処理デバイスとを含むシステムを示すブロック図である。 本開示の例による、手術アイテムのセットとMR可視化デバイスの形態の処理デバイスとを含む医療デバイスシステムを示す概念ブロック図である。 本開示の例による、手術アイテムのセットとMR可視化デバイスの形態の処理デバイスとを含む医療デバイスシステムを示す別の概念ブロック図である。 肩関節形成術における例示の測深手順の図である。 肩関節形成術における例示の穿孔手順の図である。 肩関節形成術における例示の圧縮またはラスピング手順の図である。 肩関節形成術における例示の表面プレーニング手順の図である。 肩関節形成術における例示の保護手順の図である。 肩関節形成術における例示のトライアル手順の図である。 肩関節形成術における例示のトライアル手順の図である。 例示の肩関節形成術における例示のインプラント手順の図である。 例示の肩関節形成術における例示のインプラント手順の図である。 肩関節形成術における、測深器(sounder)を患者の上腕骨に挿入する人間の上腕骨に対して行われている測深手順の側面概念図である。 図95に示す手術手順で使用するための様々なサイズの医療用測深器の図である。 徐々に大きくなる測深器のセットを含むツールのセットの図である。 人間の上腕骨に対して行われている圧縮またはラスピング手順の側面概念図である。 徐々に大きくなる圧縮ツールのセットを含むツールセットの図である。 人間の上腕骨に対して行われている表面プレーニング手順の側面概念図である。 徐々に大きくなる表面プレーニングツールを含むツールセットの図である。 手術においてツールを識別する技術を示すフロー図である。 手術においてツールを識別し、手術の段階に基づいてこのようなツールの識別を変更する方法を示すフロー図である。 本開示に記載される手術アイテムの1つまたは複数に対応し得る手術アイテムのより詳細なブロック図である。 セットから特定の手術アイテムを識別するために仮想要素が提示された、図97に示す手術アイテムのセットに類似する手術アイテムのセットの図である。 セットから特定の手術アイテムを識別するために仮想要素が提示された、図97に示す手術アイテムのセットに類似する手術アイテムのセットの別の図である。 手術に必要なアイテムを識別し、アセンブリを必要とするアイテムを識別し、且つ、両面のあるアイテムの使用する面を識別するために仮想要素が提示された、図99に示す手術アイテムのセットに類似する手術アイテムのセットの図である。 手術アイテムのセットを識別し、且つ、所与の手術アイテムと他の識別済みの手術アイテムを区別するために仮想要素が提示された、図101に示す手術アイテムのセットに類似する手術アイテムのセットの図である。 本開示の技術による、患者の手足の可動域のエクステンデッドリアリティ(XR)可視化を生成する例示のシステムを示すブロック図である。 患者の肩で生じる患者の右腕の例示の動きを示す概念図である。 本開示の技術による、可動域の例示のエクステンデッドリアリティ可視化を示す概念図である。 本開示の技術による、動きの分析及び可視化の範囲のためのシステムの例示の動作を示すフローチャートである。 本開示の技術による、システムの例示の動作を示すフローチャートである。 ユーザの集合が教育目的でMRシステムを使用する例示の設定を示す概念図である。 互いに通信する複数のMRデバイスを含むシステムのブロック図である。 リモート環境の1人または複数のユーザと通信しているローカル環境の1人または複数のユーザを含む分散MRシステムを示すブロック図である。 リモート環境の1人または複数のユーザと通信しているローカル環境の1人または複数のユーザを含むMRシステムを示す別のブロック図である。 本開示の技術による、整形外科手術のワークフローステップのステップを通して、外科医、看護師、または他の医療技師等のユーザを支援し得る例示のシステムを示すブロック図である。 本開示の技術による、整形外科手術のワークフローステップのステップを通して、外科医、看護師、または他の医療技師等のユーザを支援する例示の動作を示すフローチャートである。 患者の肩に整形外科手術を行いながら、外科医、看護師、または他の医療技師等のユーザが見る、1つまたは複数の仮想チェックリスト項目のセットを含む例示のXR可視化を示す概念図である。 本開示の技術による、第1の手術計画を術中フェーズ中に修正して、第2の手術計画を生成する例示のシステムを示す概念図である。 本開示の技術による、第1の手術計画を術中フェーズ中に修正して、第2の手術計画を生成する例示の動作のフローチャートである。 本開示の技術による、患者の肩の状態の分類を決定するために使用可能なDNNを実施する例示のコンピューティングシステムを示すブロック図である。 図122のシステムを用いてコンピューティングシステムによって実施され得る例示のディープニューラルネットワーク(DNN)を示す。 本開示の技術による、DNNを使用して肩の状態の分類を決定する時のコンピューティングシステムの例示の動作を示すフローチャートである。 本開示の技術による、DNNを使用して、肩の状態に対して推奨される手術を決定するためのコンピューティングシステムの例示の機能コンポーネントを示すブロック図である。 本開示の技術による、DNNを使用して、患者に対して推奨されるタイプの肩の手術を決定するコンピューティングシステムの例示の動作を示すフローチャートである。 整形外科手術教育のための教師用MRデバイスと生徒用MRデバイスとを含む教育システムの概念ブロック図である。 整形外科手術教育用の教師用MRデバイスと複数の生徒用MRデバイスとを含む教育システムの概念ブロック図である。 現実の教師無しで生徒によって使用される整形外科手術教育用教育システムの概念ブロック図である。 生徒に対してリモートにいる教師によって使用される整形外科手術教育用教育システムの概念ブロック図である。 生徒の1人または複数が教師に対してリモートにいる、生徒と複数の生徒によって使用される整形外科手術教育用教育システムの概念ブロック図である。 整形外科手術教育用のMR及び/またはVRを使用する他の教育システムの概念ブロック図である。 整形外科手術教育用のMR及び/またはVRを使用する他の教育システムの概念ブロック図である。 教師及び生徒が仮想情報を含む様々な仮想モデルを操作できる整形外科手術教育用のMR及び/またはVRを使用する教育システムの概念ブロック図である。 生徒が仮想モデルを操作できるように仮想モデルの操作権を教師が割り当てることができる整形外科手術教育用のMR及び/またはVRを使用する教育システムの概念ブロック図である。 MR及び/またはVRの支援を受けて行うことができる教育技術を示すフロー図である。 MR及び/またはVRの支援を受けて行うことができる教育技術を示すフロー図である。 MR及び/またはVRの支援を受けて行うことができる教育技術を示すフロー図である。 MR及び/またはVRの支援を受けて行うことができる教育技術を示すフロー図である。 ユーザが仮想モデルの操作可能なコピーを起動できる整形外科手術教育用のMR及び/またはVRを使用する教育システムの概念ブロック図である。 生徒及び教師が幾つかの異なる仮想モデルを見て比較できる整形外科手術教育用のMR及び/またはVRを使用する教育システムの概念ブロック図である。 教師がMR/VR教育コンテンツを制御するための仮想制御メニューを有する整形外科手術教育用のMR及び/またはVRを使用する教育システムの概念ブロック図である。 教師及び生徒がMR/VR教育コンテンツを制御するための仮想制御要素を有する整形外科手術教育用のMR及び/またはVRを使用する教育システムの概念ブロック図である。 MR及び/またはVRの支援を受けて実行できる教育技術を示すフロー図である。 進行中の手術の特定の詳細に関してリモートユーザの教育を支援する機能を含む教育システムの概念ブロック図である。 進行中の手術の特定の詳細に関してリモートユーザの教育を支援する術中の教育技術を示すフロー図である。 進行中の手術の特定の詳細に関してリモートユーザの教育を支援する術中の教育技術を示すフロー図である。 例示の仮想肩の仮想教師モデルと教師モデルに類似した仮想コンテンツを有する複数の生徒モデルとを示す1つの概念例である。 本開示の1つまたは複数の技術による、解剖学的構造の準備のMR支援検証の例示の技術を示すフロー図である。 足関節修復手術の例示の段階を示すフローチャートである。 A及びBは、脛骨へのガイドピンの例示の取付を示す概念図である。 脛骨への例示のドリルによる穴開けを示す概念図である。 脛骨の例示の切除を示す概念図である。 A及びBは、距骨準備プロセス中に距骨に取り付けられた例示のガイドピンを示す概念図である。 距骨の例示の切除を示す概念図である。 脛骨切除と距骨切除を行った後の例示の足首の概念図である。 A~Cは、脛骨トレイトライアルの例を示す概念図である。 脛骨インプラント固定具の例示の作成を示す概念図である。 A及びBは、距骨へのガイドピンの例示の取付を示す概念図である。 距骨上の例示の距骨切除ガイドの概念図である。 例示の後方距骨の面取り切除(chamfer resection)の概念図である。 例示の前方距骨の面取り切除(chamfer resection)の概念図である。 例示の前方距骨の面取り切除(chamfer resection)の概念図である。 距骨インプラント固定具の例示の作成を示す概念図である。 距骨インプラント固定具の例示の作成を示す概念図である。 例示の脛骨インプラントを示す概念図である。 準備された脛骨の例を示す概念図である。 脛骨インプラントの脛骨内への例示の打ち込み(impaction)を示す概念図である。 例示の距骨インプラントを示す概念図である。 距骨インプラントの距骨内への例示の打ち込みを示す概念図である。 脛骨インプラントと距骨インプラントの間に埋め込まれた例示のベアリングを示す概念図である。 本開示の1つまたは複数の技術による、MR支援手術の例示の技術を示すフロー図である。
本開示のある特定の例を、添付図面を参照して記載する。図面中、類似の参照番号は類似の要素を表す。しかしながら、添付図面は、本明細書に記載する様々な実施態様だけを示し、本明細書に記載の様々な技術の範囲を制限する意図はないことを理解されたい。図面は、本開示の様々な例を示し、記載する。
以下の記載において、本発明の理解のために多くの詳細が記載されている。しかしながら、これらの詳細が無くても本発明を実践してよく、記載の例から多くの変形または修正が可能であり得ることを当業者は理解されよう。
整形外科手術は、患者の損傷した関節または罹患関節を修復または置換するために1つまたは複数の人工装具デバイスを埋め込むことを伴い得る。今日では、罹患関節または損傷した関節の画像データを使用して、外科医が術前に見て操作できるような正確な3次元骨モデルを生成する仮想の手術計画ツールが利用できる。これらのツールによって、外科医は、手術をシミュレーションし、患者の実際の骨の輪郭により厳密に一致したインプラントを選択もしくは設計し、且つ、特定の患者の骨の修復に特に適合された手術器具及びガイドツールを選択もしくは設計して、手術結果を向上させることができる。これらの計画ツールを使用すると、典型的に、個々の患者に合わせて選択または製造されるインプラント及び手術器具を完備した術前手術計画が生成される。実際の手術環境になると、外科医は、患者の実際の骨に対して術中に術前手術計画を検証したいことが多い。この検証によって、異なるインプラント、インプラントの異なる位置もしくは向き、及び/または手術計画を行うための異なる手術ガイドなど、術前手術計画への調整が必要であると判断される場合がある。さらに、外科医は、インプラントコンポーネントの位置及び向きをより効率的且つ正確に決めるために、実際の処置中に患者の現実の骨に対する術前手術計画の詳細を見たい場合がある。例えば、外科医は、インプラントコンポーネントの位置決め及び向きのガイダンス、インプラントコンポーネントを受け入れる骨もしくは組織の準備のガイダンス、手順もしくは手順のステップの詳細の見直しのガイダンス、及び/またはツールもしくはインプラントの選択及び手術ワークフローの追跡のガイダンスを提供する術中の可視化を得たい場合がある。
従って、本開示は、手術前及び手術中に複合現実(MR)可視化システムを用いて手術計画の作成、実施、検証及び/または修正を支援するシステム及び方法を記載する。MR、または、いくつかの例では、VRを使用して手術計画とやりとりし得るので、本開示では、手術計画を「仮想の」手術計画と呼ぶ場合もある。複合現実可視化システム以外の、または、それらに追加する可視化ツールが、本開示の技術に従って使用されてよい。手術計画、例えば、BLUEPRINT(商標)システムまたは他の手術計画プラットフォームによって生成される手術計画は、例えば、骨もしくは組織準備ステップ及び/またはインプラントコンポーネントの選択、修正及び/または配置ステップを含む手術計画に従って外科医が患者に対して行う特定の手術ステップの特徴など、手術の様々な特徴を規定する情報を含み得る。このような情報は、様々な例において、外科医が選択もしくは修正するインプラントコンポーネントの寸法、形状、角度、表面輪郭及び/または向き、骨もしくは組織準備ステップにおいて外科医が規定した骨もしくは組織の寸法、形状、角度、表面輪郭及び/または向き、及び/または、患者の骨もしくは組織に対してインプラントコンポーネントの外科医による配置を規定する位置、軸、平面、角度及び/または進入点を含んでよい。患者の解剖学的特徴の寸法、形状、角度、表面輪郭及び/または向き等の情報は、イメージング(例えば、x線、CT、MRI、超音波または他の画像)、直接観察、または他の技術から導出されてよい。
本開示において、「複合現実」(MR)という用語は、現実の物理的な物体と仮想物体との両方を含む画像がユーザに見えるように仮想物体を提示することを指す。仮想物体は、物理的な現実世界の環境に実際に存在しないが、共存しているとして提示されるテキスト、2次元表面、3次元モデル、またはユーザが認識できる他の要素を含み得る。さらに、本開示の様々な例に記載される仮想物体は、例えば、3D仮想物体または2D仮想物体として提示されるグラフィックス、画像、アニメーションまたはビデオを含み得る。仮想物体は、仮想要素とも呼ばれてよい。このような要素は、現実世界の物体に類似していてもよく、類似してなくてもよい。いくつかの例では、複合現実において、カメラが、現実世界の画像をキャプチャして、現実世界の文脈で仮想物体を提示するように画像を修正してよい。このような例では、修正された画像は、ヘッドマウント、ハンドヘルドまたは他の方法でユーザが視聴可能な画面に表示されてよい。このタイプの複合現実は、ユーザがスマートフォンのカメラを外国語で書かれた標識に向け、カメラがキャプチャしたシーンの残りと共に標識に重ねてユーザ自身の言語で標識の翻訳をスマートフォンの画面で見ることができる等、スマートフォンでますます一般的になっている。いくつかの例では、複合現実において、導波路と呼ばれて得るシースルーの(例えば、透明な)ホログラフィックレンズは、ユーザが、現実世界の物体、すなわち、現実の解剖学的構造等、現実世界の実際の物体を、ホログラフィックレンズを通して見ながら、同時に仮想物体を見ることを可能にし得る。
ワシントン州レドモンドのマイクロソフト社製のMicrosoft HOLOLENS(商標)ヘッドセットは、ユーザがレンズを通して現実世界の物体を見ながら、同時に投影された3Dホログラフィックオブジェクトを見ることを可能にする、導波路と呼ばれ得るシースルーのホログラフィックレンズを含むMRデバイスの一例である。Microsoft HOLOLENS(商標)ヘッドセット、または、類似の導波路ベースの可視化デバイスは、本開示のいくつかの例に従って使用され得るMR可視化デバイスの例である。いくつかのホログラフィックレンズは、シースルーのホログラフィックレンズを通してある程度の透明さでホログラフィックオブジェクトを提示してよく、結果として、ユーザは、現実世界の物体と、仮想のホログラフィックオブジェクトが見える。いくつかの例では、いくつかのホログラフィックレンズは、時には、ユーザが現実世界の物体を見るのを完全に防ぎ、代わりに、ユーザが完全な仮想環境を見ることを可能にし得る。複合現実という用語は、1人または複数のユーザがホログラフィック投影によって生成された1つまたは複数の仮想物体を認識できるシナリオも含み得る。言い換えると、「複合現実」は、ユーザの現実の物理的環境に存在するようにユーザに見える要素のホログラムをホログラフィックプロジェクタが生成する場合を含み得る。
いくつかの例では、複合現実において、いくつかまたは全ての提示された仮想物体の位置は、現実世界の物理的物体の位置に関連する。例えば、仮想物体は、現実世界のテーブルに束縛されてよく、その結果、ユーザは、ユーザがテーブルの方向を見るとき仮想物体が見えるが、テーブルがユーザの視野に無い時は仮想物体が見えない。いくつかの例では、複合現実において、いくつかまたは全ての提示された仮想物体の位置は、現実世界の物理的物体の位置に関連付けられていない。例えば、仮想アイテムは常に、ユーザが見ている場所に関わらず、ユーザの視野の右上に現れてよい。
拡張現実(AR)は、現実世界と仮想要素の両方の提示ではMRに類似しているが、ARは一般に、提示されるものはほとんど現実であり、現実世界の提示を「拡張」するために数個の仮想の追加があることを指す。本開示の目的のために、MRは、ARを含むとみなす。例えば、ARにおいて、陰になっているユーザの物理的環境の一部を、ユーザの物理的環境の他のエリアを明るくすること無しに、選択的に明るくすることができる。この例も、選択的に明るくされるエリアは、陰になっているユーザの物理的環境の一部に重ね合わされた仮想物体であるとみなされてよいという点で、MRの例である。
さらに、本開示において、「仮想現実」(VR)という用語は、ユーザがコンピュータによって提供される感覚刺激(視覚及び音等)を体験する没入型の人工環境を指す。従って、仮想現実においては、物理的物体が現実世界に存在している時、ユーザは、いかなる物理的物体も、現実世界に存在しているように見えない場合がある。仮想世界に設定されたビデオゲームが、VRの一般的な例である。「VR」という用語は、ユーザに完全な人工環境を提示するシナリオも含んでよく、そのシナリオでは、いくつかの仮想物体の場所が、ユーザに関連するように、対応する物理的物体の場所に基づく。ウォークスルーVRアトラクションは、このタイプのVRの例である。
「エクステンデッドリアリティ」(XR)という用語は、仮想現実、複合現実、拡張現実、及びユーザの現実世界環境に存在しない少なくともいくつかの認識できる要素をユーザの環境に存在するように提示することを伴う他のユーザ体験を含む、様々なユーザ体験を含む用語である。従って、「エクステンデッドリアリティ」という用語はMR及びVRの属と見なされてよい。XR可視化は、本開示の他の場所に記載する複合現実を提示する技術のいずれかで提示されてよい、または、VRゴーグル等のVRを提示する技術を使用して提示されてよい。
これらの複合現実システム及び方法は、手術結果の向上に使用することができる複数のサブシステムを含むインテリジェントな手術計画システムの一部であってよい。上記の術前及び術中の適用に加えて、インテリジェントな手術計画システムは、患者の回復を支援する術後ツールを含むことができ、将来の手術のための改正、または、他の患者のための手術例の支援及び計画に使用できる情報を提供することができる。
従って、計画を支援する人工知能システム、ヘルスケア提供者及び人工知能システムが使用するための術後フィードバックを提供する埋め込まれたセンサを有するインプラント(例えば、スマートインプラント)、並びに、情報をモニタリングし、リアルタイムで、または、リアルタイムに近く患者及びヘルスケア提供者に情報を提供するモバイルアプリケーションなどの、インテリジェントな手術計画システムに組み込むことができるシステム及び方法も本明細書に記載する。
患者の画像データを利用して、関節の修復及び置換のための術前計画を容易にする骨の輪郭の3次元モデルを生成する可視化ツールも利用できる。これらのツールは、外科医が、手術ガイド、及び患者の解剖学的構造に厳密に一致するインプラントコンポーネントを設計及び/または選択するのを可能にする。これらのツールは、各患者に合わせて手術計画をカスタマイズすることによって、手術結果を向上させることができる。肩の修復のためのこのような可視化ツールの例は、Wright Medical Technology社製のBLUEPRINT(商標)システムである。BLUEPRINT(商標)システムは、骨の修復領域の2次元の平面図と、修復領域の3次元仮想モデルとを外科医に提供する。外科医は、BLUEPRINT(商標)システムを使用して、適切なインプラントコンポーネントを選択、設計もしくは修正し、インプラントコンポーネントの最良の位置及び向きとコンポーネントを受け入れる骨の表面の成形の仕方とを決定し、手術計画を実行する手術ガイドツール(複数可)または器具を設計、選択、もしくは修正することができる。BLUEPRINT(商標)システムによって生成された情報は、患者の術前手術計画で蓄積され、適切な場所(例えば、広域ネットワーク、ローカルエリアネットワーク、またはグローバルネットワークのサーバ上)のデータベースに記憶され、実際の手術の前または手術中など、外科医または他のケア提供者がデータベースの情報にアクセスできる。
図1は、本開示の例による、整形外科手術システム100のブロック図である。整形外科手術システム100は、サブシステムのセットを含む。図1の例では、サブシステムは、仮想計画システム102、計画支援システム104、製造及び送達システム106、術中ガイダンスシステム108、医療教育システム110、モニタリングシステム112、予測分析システム114、及び通信ネットワーク116を含む。他の例では、整形外科手術システム100は、より多くの、より少ない、または、異なるサブシステムを含み得る。例えば、整形外科手術システム100は、医療教育システム110、モニタリングシステム112、予測分析システム114、及び/または他のサブシステムを省略してよい。いくつかの例では、整形外科手術システム100は、手術追跡に使用されてよく、この場合、整形外科手術システム100は、手術追跡システムと呼ばれてよい。他の場合には、整形外科手術システム100は一般に医療デバイスシステムと呼ばれてよい。
整形外科手術システム100のユーザは、仮想計画システム102を使用して、整形外科手術を計画してよい。整形外科手術システム100のユーザは、計画支援システム104を使用して、整形外科手術システム100を使用して生成された手術計画を見直してよい。製造及び送達システム106は、整形外科手術を行うのに必要なアイテムの製造及び送達を支援してよい。術中ガイダンスシステム108は、整形外科手術を行う際に、整形外科手術システム100のユーザにガイダンスを提供する。医療教育システム110は、ヘルスケア専門家、患者、及び他のタイプの個人等のユーザの教育を支援してよい。術前及び術後モニタリングシステム112は、患者が手術を受ける前及び受けた後の患者のモニタリングを支援してよい。予測分析システム114は、様々なタイプの予測についてヘルスケア専門家を支援してよい。例えば、予測分析システム114は、整形外科が対象とする関節の状態の分類、例えば、診断を決定し、患者にどのタイプの手術を行うべきか及び/または手術でどのタイプのインプラントを使用するべきかを決定し、手術中に必要となり得るアイテムのタイプを決定するために人工知能技術を適用してよい。
整形外科手術システム100のサブシステム(すなわち、仮想計画システム102、計画支援システム104、製造及び送達システム106、術中ガイダンスシステム108、医療教育システム110、術前及び術後モニタリングシステム112、及び、予測分析システム114)は、様々なシステムを含み得る。整形外科手術システム100のサブシステム内のシステムは、様々なタイプのコンピューティングシステム、サーバコンピュータ、パーソナルコンピュータ、タブレットコンピュータ、スマートフォン、ディスプレイデバイス、インターネットオブシングズ(IoT)デバイス、可視化デバイス(例えば、複合現実(MR)可視化デバイス、仮想現実(VR)可視化デバイス、ホログラフィックプロジェクタ、またはエクステンデッドリアリティ(XR)可視化を提示する他のデバイス)含むコンピューティングデバイス、手術用ツール等を含み得る。ホログラフィックプロジェクタは、いくつかの例では、ヘッドセットを着用したユーザのみが見るのではなく、ヘッドセット無しの複数のユーザまたは1人のユーザが一般に見るためのホログラムを投影してよい。例えば、仮想計画システム102は、MR可視化デバイスと1つまたは複数のサーバデバイスとを含んでよく、計画支援システム104は、1つまたは複数のパーソナルコンピュータと1つまたは複数のサーバデバイス等を含んでよい。コンピューティングシステムは、あるシステムとして動作するように構成された1つまたは複数のコンピューティングシステムのセットである。いくつかの例では、1つまたは複数のデバイスが、整形外科手術システム100のサブシステムの2つ以上の間で共有されてよい。例えば、上記の例では、仮想計画システム102と計画支援システム104は、同じサーバデバイスを含んでよい。
図1の例では、整形外科手術システム100のサブシステムに含まれるデバイスは、通信ネットワーク116と通信してよい。通信ネットワーク116は、インターネット等の1つまたは複数の広域ネットワーク、ローカルエリアネットワークなどを含む様々なタイプの通信ネットワークを含んでよい。いくつかの例では、通信ネットワーク116は、有線及び/または無線の通信リンクを含んでよい。
整形外科手術システム100の多くの変形が、本開示の技術によると可能である。このような変形は、図1に示す整形外科手術システム100のバージョンより多いまたは少ないサブシステムを含んでよい。例えば、図2は、本開示の例による、1つまたは複数の複合現実(MR)システムを含む整形外科手術システム200のブロック図である。整形外科手術システム200は、手術計画の作成、検証、更新、修正及び/または実施に使用されてよい。いくつかの例では、手術計画は、仮想手術計画システム(例えば、BLUEPRINT(商標)システム)等を使用して、術前に作成することができ、その後、例えば、手術計画のMR可視化を用いて、術中に検証、修正、変更及び見ることができる。他の例では、整形外科手術システム200を使用して、必要に応じて手術の直前または手術中に、手術計画を作成することができる。いくつかの例では、整形外科手術システム200は、手術追跡に使用されてよく、その場合、整形外科手術システム200は、手術追跡システムと呼ばれてよい。他の場合には、整形外科手術システム200は一般に医療デバイスシステムと呼ばれてよい。
図2の例において、整形外科手術システム200は、術前手術計画システム202、ヘルスケア施設204(例えば、外科センターまたは病院)、ストレージシステム206、及び、ヘルスケア施設204のユーザが、病歴等の記憶された患者情報、損傷した関節もしくは骨に対応する画像データ、及び、術前に(例として)作成された手術計画に対応する様々なパラメータにアクセスするのを可能にするネットワーク208を含む。術前手術計画システム202は、図1の仮想計画システム102に相当してよく、いくつかの例では、一般に、BLUEPRINT(商標)システムと類似のまたは同じ仮想計画システムに対応してよい。
図2の例において、ヘルスケア施設204は、複合現実(MR)システム212を含む。本開示のいくつかの例では、MRシステム212は、以下でさらに詳細に記載する機能を提供する1つまたは複数の処理デバイス(複数可)(P)210を含む。処理デバイス(複数可)210は、プロセッサ(複数可)とも呼ばれてよい。さらに、MRシステム212の1人または複数のユーザ(例えば、外科医、看護師、または他のケア提供者)は、処理デバイス(複数可)(P)210を使用して、特定の手術計画または他の患者情報の要求を生成することができ、要求は、ネットワーク208を介してストレージシステム206に送信される。応答して、ストレージシステム206は、要求された患者情報をMRシステム212に返信する。いくつかの例では、ユーザは、MRシステム212の一部であるが可視化デバイスの一部ではない1つまたは複数の処理デバイス、または、MRシステム212の可視化デバイス(例えば、可視化デバイス213)の一部である1つまたは複数の処理デバイス、または、MRシステム212の一部であるが可視化デバイスの一部ではない1つまたは複数の処理デバイスとMRシステム212の一部である可視化デバイス(例えば、可視化デバイス213)の一部である1つまたは複数の処理デバイスの組み合わせなど、他の処理デバイス(複数可)を使用して、情報を要求及び受信することができる。
いくつかの例では、複数のユーザが、MRシステム212を同時に使用することができる。例えば、MRシステム212は、複数のユーザがそれぞれ、自分の可視化デバイスを使用することによって、ユーザは同時に同じ視点から同じ情報を見ることができる第三者モードで使用することができる。いくつかの例では、MRシステム212は、複数のユーザがそれぞれ、自分の可視化デバイスを使用することによって、ユーザが異なる視点から同じ情報を見ることができるモードで使用されてよい。
いくつかの例では、処理デバイス(複数可)210は、データを表示し、ヘルスケア施設204のユーザからの入力を受信するためのユーザインタフェースを提供することができる。処理デバイス(複数可)210は、ユーザインタフェースを提示するように可視化デバイス213を制御するように構成されてよい。さらに、処理デバイス(複数可)210は、3D仮想モデル、2D画像等の仮想画像を提示するように可視化デバイス213を制御するように構成されてよい。処理デバイス(複数可)210は、サーバ、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、携帯電話及び他の電子コンピューティングデバイス、または、このようなデバイス内のプロセッサ等、様々な異なる処理デバイスまたはコンピューティングデバイスを含むことができる。いくつかの例では、処理デバイス(複数可)210の1つまたは複数は、ヘルスケア施設204からリモートに位置してよい。いくつかの例では、処理デバイス(複数可)210は、可視化デバイス213内に存在する。いくつかの例では、処理デバイス(複数可)210の少なくとも1つが可視化デバイス213の外部にある。いくつかの例では、1つまたは複数の処理デバイス(複数可)210が可視化デバイス213内に存在し、処理デバイス(複数可)210の1つまたは複数が可視化デバイス213の外部にある。
図2の例において、MRシステム212は、データ、及び処理デバイス(複数可)210が実行できるソフトウェアの命令を記憶するための1つまたは複数のメモリまたはストレージデバイス(複数可)(M)215も含む。ソフトウェアの命令は、本明細書に記載のMRシステム212の機能に対応し得る。いくつかの例では、BLUEPRINT(商標)システム等の仮想手術計画アプリケーションの機能も記憶することができ、メモリまたはストレージデバイス(複数可)(M)215と共に処理デバイス(複数可)210によって実行することができる。例えば、メモリまたはストレージデバイス215は、仮想手術計画の少なくとも一部分に対応するデータを記憶するように構成されてよい。いくつかの例では、ストレージシステム206は、仮想手術計画の少なくとも一部分に対応するデータを記憶するように構成されてよい。いくつかの例では、メモリまたはストレージデバイス(複数可)(M)215は、可視化デバイス213内に存在する。いくつかの例では、メモリまたはストレージデバイス(複数可)(M)215は、可視化デバイス213の外部にある。いくつかの例では、メモリまたはストレージデバイス(複数可)(M)215は、可視化デバイス213内の1つまたは複数のメモリまたはストレージデバイスと、可視化デバイスの外部の1つまたは複数のメモリまたはストレージデバイスとの組み合わせを含む。
ネットワーク208は、ネットワーク116に相当し得る。ネットワーク208は、術前手術計画システム202及びMRシステム212をストレージシステム206に接続する1つまたは複数の広域ネットワーク、ローカルエリアネットワーク、及び/またはグローバルネットワーク(例えば、インターネット)を含むことができる。ストレージシステム206は、患者情報、医療情報、患者画像データ、及び、手術計画を規定するパラメータを含み得る1つまたは複数のデータベースを含むことができる。例えば、患者の罹患または損傷した骨の医療画像が一般的に、整形外科手術の準備時に、術前に生成される。医療画像は、患者の身体の矢状面と冠状面とに沿った関連する骨(複数可)の画像を含み得る。医療画像は、X線画像、磁気共鳴イメージング(MRI)画像、コンピュータ断層撮影(CT)画像、超音波画像、及び/または関連する手術領域に関する情報を提供する任意の他のタイプの2Dもしくは3D画像を含み得る。ストレージシステム206はまた、特定の患者に合わせて選択されたインプラントコンポーネント(例えば、タイプ、サイズ等)、特定の患者に合わせて選択された手術ガイド、及び、進入点、切断面、ドリル軸、リーミング深さ等の手術の詳細を識別するデータを含み得る。ストレージシステム206は、クラウドベースのストレージシステム(図示せず)であってよい、または、ヘルスケア施設204、または、術前手術計画システム202の場所に位置してよい、または、例として、MRシステム212もしくは可視化デバイス(VD)213の一部であってよい。
MRシステム212は、手術の前(例えば、術前)または手術中(例えば、術中)に外科医によって使用されて、手術計画を作成、見直し、検証、更新、修正、及び/または実施することができる。いくつかの例では、MRシステム212はまた、手術の結果を見直し、改正が必要かどうかを評価し、または、他の術後タスクを行うために手術の後(例えば、術後)に使用されてよい。この目的のために、MRシステム212は、外科医によって着用されてよく、(以下にさらに詳細に示すように)様々なタイプの情報を表示するように動作可能な可視化デバイス213を含んでよい。様々なタイプの情報には、患者の罹患した、損傷した、または、手術後の関節の3D仮想画像及び手術計画に合わせて選択された人工インプラントコンポーネントの3D仮想画像等の手術計画の詳細と、手術中に人工コンポーネントを正確な向き及び位置で配置するための人工コンポーネントを配置するための進入点、骨表面を成形するための切断ツールもしくはリーミングツール、または骨表面に1つまたは複数の穴を画定するためのドリルツールを整列させるためのアライメント軸及び切断面の3D仮想画像と、手術ガイド及び器具及びそれらの損傷した関節への配置、並びに、外科医が手術計画を実施するために有用であり得る任意の他の情報が含まれる。MRシステム212は、この情報の画像を生成することができ、可視化デバイス213のユーザは、この画像を手術前及び/または手術中に認識できる。
いくつかの例では、MRシステム212は、複数の可視化デバイス(例えば、可視化デバイス213の複数のインスタンス)を含み、その結果、複数のユーザが、同時に同じ画像を見て、同じ3Dシーンを共有することができる。いくつかのこのような例では、可視化デバイスの1つを、マスタデバイスとして設計することができ、他の可視化デバイスは、オブサーバまたは第三者として設計できる。MRシステム212のユーザが望むと、任意のオブサーバデバイスを任意の時にマスタデバイスとして再指定できる。
このように、図2は、特定の患者の対象とする解剖学的構造を修復するようにカスタマイズされた仮想手術計画を生成するための術前手術計画システム202を含む手術計画システムを示す。例えば、仮想手術計画は、標準的な全肩関節形成または逆肩関節形成の計画等、(例えば、患者の解剖学的構造に人工装具を取り付けるための)整形外科的関節修復手術の計画を含んでよい。この例では、仮想手術計画の詳細は、人工装具の取付のための解剖学的構造の準備または人工装具の解剖学的構造への取付の少なくとも1つに関する詳細を含み得る。例えば、仮想手術計画の詳細は、関節窩骨の準備、上腕骨の準備、人工装具の関節窩骨への取付、または、人工装具の上腕骨への取付の少なくとも1つに関する詳細を含み得る。いくつかの例では、整形外科的関節修復手術は、ステムレスの標準的な全肩関節形成、ステムを使用する標準的な全肩関節形成、ステムレスの逆肩関節形成、ステムを使用する逆肩関節形成、補強関節窩による標準的な全肩関節形成、及び補強関節窩による逆肩関節形成の1つである。
仮想手術計画は、特定の患者の対象とする解剖学的構造に対応する3D仮想モデルと、対象とする解剖学的構造の修復のために特定の患者に適合された、または、対象とする解剖学的構造の修復のために選択された人工装具コンポーネントの3Dモデルとを含み得る。さらに、図2の例において、手術計画システムは、仮想手術計画に対応するデータを記憶するためのストレージシステム206を含む。図2の手術計画システムはまた、MRシステム212を含み、MRシステム212は、可視化デバイス213を含み得る。いくつかの例では、可視化デバイス213はユーザによって着用可能である。いくつかの例では、可視化デバイス213は、ユーザが手に持つ、または、ユーザがアクセス可能な平面の表面に置かれる。MRシステム212は、可視化デバイス213を介してユーザインタフェースを提示するように構成されてよい。ユーザインタフェースは、特定の患者の仮想手術計画の詳細を提示してよい。例えば、仮想手術計画の詳細は、特定の患者の対象とする解剖学的構造の3D仮想モデルを含んでよい。ユーザが可視化デバイス213を使用している時、ユーザはユーザインタフェースを視覚的に認識できる。例えば、一例では、可視化デバイス213の画面が、現実世界の画像とユーザインタフェースとを画面に表示してよい。いくつかの例では、可視化デバイス213は、仮想のホログラフィック画像をシースルーのホログラフィックレンズ上に投影してよく、また、ユーザが、レンズを通して現実世界環境の現実世界の物体を見るのを可能にする。言い換えると、可視化デバイス213は、1つまたは複数のシースルーのホログラフィックレンズと、ユーザインタフェースをユーザに提示するためにホログラフィックレンズを介してユーザに画像を提示する1つまたは複数のディスプレイデバイスとを含んでよい。
いくつかの例では、可視化デバイス213は、ユーザが、(ユーザが可視化デバイス213を着用または別の方法で使用している時、ユーザが視覚的に認識できる)ユーザインタフェースを操作して、対象とする解剖学的構造の3D仮想モデル(例えば、関節窩骨または上腕骨等、対象とする解剖学的構造の3D仮想骨モデル)及び/または対象とする解剖学的構造を修復するために選択された人工コンポーネントの3Dモデルを含む、特定の患者のための仮想手術計画の詳細を要求及び見ることができるように構成される。いくつかのこのような例では、可視化デバイス213は、ユーザが(少なくともいくつかの例では)対象とする解剖学的構造の3D仮想モデル(例えば、対象とする解剖学的構造の3D仮想骨モデル)を含む仮想手術計画を術中に見ることができるようにユーザがユーザインタフェースを操作できるように構成される。いくつかの例では、MRシステム212は、拡張手術モードで動作させることができる。拡張手術モードでは、ユーザが、術中にユーザインタフェースを操作することができ、その結果、ユーザは、現実環境に、例えば、特定の患者の対象とする現実の解剖学的構造上に、投影された仮想手術計画の詳細を視覚的に認識できる。本開示では、現実及び現実世界という用語は、同様に使用されてよい。例えば、MRシステム212は、骨表面準備及び骨表面への人工インプラントの配置のためのガイダンスを提供する1つまたは複数の仮想物体を提供してよい。可視化デバイス213は、例えば、ホログラフィックレンズを通してユーザが見る実際の現実世界の患者の解剖学的構造と共に仮想物体(複数可)を表示することによって、仮想物体が現実世界環境内で患者の実際の現実の解剖学的物体上に重なって見えるように、1つまたは複数の仮想物体を提示してよい。例えば、仮想物体は、実際の現実の解剖学的物体と共に現実世界環境内に存在するように見える3D仮想物体であってよい。
図3は、手術ライフサイクル300の例示のフェーズを示すフローチャートである。図3の例では、手術ライフサイクル300は、術前フェーズ(302)で開始する。術前フェーズ中、手術計画が開発される。術前フェーズに製造及び送達フェーズ(304)が続く。製造及び送達フェーズ中、部品及び機器等、手術計画の実施に必要な患者に固有のアイテムが製造され、手術場所に届けられる。いくつかの例では、手術計画を実行するために、患者に固有のアイテムを製造する必要はない。製造及び送達フェーズに術中フェーズ(306)が続く。手術計画は、術中フェーズ中に実行される。言い換えると、1人または複数の人が、術中フェーズ中に患者に対して手術を行う。術中フェーズに術後フェーズ(308)が続く。術後フェーズは、手術計画が完了した後に発生する行動を含む。例えば、患者は、合併症について、術後フェーズ中、モニタリングされてよい。
本開示に記載するように、整形外科手術システム100(図1)は、術前フェーズ302、製造及び送達フェーズ304、術中フェーズ306及び術後フェーズ308の1つまたは複数で使用されてよい。例えば、仮想計画システム102及び計画支援システム104は、術前フェーズ302で使用されてよい。製造及び送達システム106は、製造及び送達フェーズ304で使用されてよい。術中ガイダンスシステム108は、術中フェーズ306で使用されてよい。図1のシステムのいくつかは、図3の複数のフェーズで使用されてよい。例えば、医療教育システム110は、術前フェーズ302、術中フェーズ306及び術後フェーズ308の1つまたは複数で使用されてよく、術前及び術後モニタリングシステム112は、術前フェーズ302及び術後フェーズ308で使用されてよい。予測分析システム114は、術前フェーズ302及び術後フェーズ308で使用されてよい。
様々なワークフローが、図3の手術プロセス内に存在してよい。例えば、図3の手術プロセス内の異なるワークフローは、異なるタイプの手術に対して適切であってよい。図4は、整形外科手術を支援する術前、術中、及び術後のワークフローを示すフローチャートである。図4の例では、手術プロセスは、医療相談(400)で開始する。医療相談(400)中、ヘルスケア専門家は、患者の病状を評価する。例えば、ヘルスケア専門家は、患者の症状について患者と話し合ってよい。医療相談(400)中、ヘルスケア専門家はまた、様々な治療選択肢を患者と話し合ってよい。例えば、ヘルスケア専門家は、患者の症状に対応する1つまたは複数の異なる手術を説明してよい。
さらに、図4の例は、症例作成ステップ(402)を含む。他の例では、症例作成ステップは、医療相談ステップ前に生じる。症例作成ステップ中、医療専門家または他のユーザは、患者の電子症例ファイルを構築する。患者の電子症例ファイルは、患者の症状に関するデータ、患者の可動域の観察、患者の手術計画に関するデータ、患者の医療画像、患者に関する注意書き、患者に関する支払い情報など、患者に関する情報を含んでよい。
図4の例は、術前患者モニタリングフェーズ(404)を含む。術前患者モニタリングフェーズ中、患者の症状がモニタリングされてよい。例えば、患者は、患者の肩の関節炎に伴う痛みを患っている場合がある。この例では、患者の症状は、患者の肩を置換行う関節形成を必要とするレベルには至っていない場合がある。しかしながら、関節炎は通常、時間の経過と共に悪化する。従って、患者の肩に手術を行う時が来たかどうかを決定するために患者の症状をモニタリングしてよい。術前患者モニタリングフェーズの観察結果は、患者の電子症例ファイルに記憶されてよい。いくつかの例では、予測分析システム114が、患者が手術を必要とする時を予測し、手術を遅らせるもしくは回避する一連の治療を予測する、または、患者の健康状態に関する他の予測を行うために使用されてよい。
さらに、図4の例では、医療画像取得ステップが、術前フェーズ中に生じる(406)。画像取得ステップ中、患者の医療画像が生成される。医療画像は、様々な方法で生成されてよい。例えば、画像は、コンピュータ断層撮影(CT)プロセス、磁気共鳴イメージング(MRI)プロセス、超音波プロセス、または、別のイメージングプロセスを使用して生成されてよい。画像取得ステップ中に生成された医療画像は、患者の対象とする解剖学的構造の画像を含む。例えば、患者の症状が患者の肩に関わる場合、患者の肩の医療画像を生成してよい。医療画像は、患者の電子症例ファイルに追加されてよい。ヘルスケア専門家は、術前、術中、及び術後のフェーズの1つまたは複数で医療画像を使用でき得る。
さらに、図4の例では、自動処理ステップが生じてよい(408)。自動処理ステップ中、仮想計画システム102(図1)は、自動的に患者の手術予備計画を開発してよい。本開示のいくつかの例では、仮想計画システム102は、機械学習技術を使用し、患者の仮想症例ファイルの情報に基づいて手術予備計画を開発してよい。
図4の例はまた、手動訂正ステップ(410)を含む。手動訂正ステップ中、1人または複数の人間ユーザが、自動処理ステップ中に行われた決定をチェックして訂正してよい。本開示のいくつかの例では、1人または複数のユーザは、手動訂正ステップ中、複合現実または仮想現実の可視化デバイスを使用してよい。いくつかの例では、手動訂正ステップ中に行われた変更は、自動処理ステップ中に仮想計画システム102によって適用される機械学習技術を改良するための訓練データとして使用されてよい。
図4では、仮想計画ステップ(412)が、手動訂正ステップに続いてよい。仮想計画ステップ中、ヘルスケア専門家は、患者の手術計画を開発してよい。本開示のいくつかの例では、1人または複数のユーザは、患者の手術計画の開発中、複合現実または仮想現実の可視化デバイスを使用してよい。
さらに、図4の例では、術中ガイダンスが生成されてよい(414)。術中ガイダンスは、手術計画の実行の仕方に関する外科医へのガイダンスを含んでよい。本開示のいくつかの例では、仮想計画システム102は、術中ガイダンスの少なくとも一部を生成してよい。いくつかの例では、外科医または他のユーザが、術中ガイダンスに寄与してよい。
さらに、図4の例では、手術アイテムを選択及び製造するステップが行われる(416)。手術アイテムを選択及び製造するステップ中、製造及び送達システム106(図1)が、手術計画が記載する手術中に使用される手術アイテムを製造してよい。例えば、手術アイテムは、外科用インプラント、手術用ツール、及び手術計画が記載する手術を行うために必要な他のアイテムを含んでよい。
図4の例では、手術は、術中システム108(図1)からのガイダンスを用いて行われてよい(418)。例えば、外科医は、術中システム108のヘッドマウントのMR可視化デバイスを着用して手術を行ってよく、MR可視化デバイスは外科医にガイダンス情報を提示する。ガイダンス情報は、手術を通して外科医をガイドする支援をしてよく、手術ワークフローにおける、ステップの順序、個々のステップの詳細、ツールもしくはインプラントの選択、インプラントの配置と位置、及び様々なステップのための骨表面の準備を含む、手術ワークフローの様々なステップのガイダンスを提供する。
術後の患者モニタリングが、手術完了後に生じてよい(420)。術後の患者モニタリングステップ中、患者のヘルスケアの結果がモニタリングされてよい。ヘルスケアの結果は、症状の緩和、可動域、合併症、埋め込まれた手術アイテムの性能等を含み得る。術前及び術後モニタリングシステム112(図1)が、術後の患者モニタリングステップを支援してよい。
図4の医療相談、症例作成、術前の患者モニタリング、画像取得、自動処理、手動訂正、及び仮想計画ステップは、図3の術前フェーズ302の一部である。図4のガイダンスステップを用いた手術は、図3の術中フェーズ306の一部である。図4の術後の患者モニタリングステップは、図3の術後フェーズ308の一部である。
上記のように、整形外科手術システム100のサブシステムの1つまたは複数は、MRシステム212(図2)等、1つまたは複数の複合現実(MR)システムを含んでよい。各MRシステムは、可視化デバイスを含んでよい。例えば、図2の例において、MRシステム212は、可視化デバイス213を含む。いくつかの例では、可視化デバイスを含むことに加えて、MRシステムは、可視化デバイスの動作を支援する外部コンピューティングリソースを含んでよい。例えば、MRシステムの可視化デバイスは、外部コンピューティングリソースを提供するコンピューティングデバイス(例えば、パーソナルコンピュータ、バックパックコンピュータ、スマートフォン等)に通信可能に結合されてよい。あるいは、可視化デバイスの必要な機能を行うために可視化デバイス213上、または、可視化デバイス213内に十分なコンピューティングリソースが備えられてよい。
図5は、本開示の例による、図2のMRシステム212等、MRシステムで使用される可視化デバイス213の概略図である。図5の例に示すように、可視化デバイス213は、1つまたは複数のプロセッサ514(例えば、マイクロプロセッサまたは他のタイプの処理ユニット)、メモリ516等、フレーム518上またはフレーム518内に取り付けられてよい、コンピューティングシステムに備えられる様々な電子コンポーネントを含み得る。さらに、図5の例では、可視化デバイス213は、ユーザが可視化デバイス213を着用すると、目の高さ位置にある透明な画面520を備えてよい。いくつかのの例では、画面520は、1つまたは複数の液晶ディスプレイ(LCD)または他のタイプのディスプレイ画面を含むことができ、可視化デバイス213を着用している、または、他の方法で使用している外科医が、画面520を介して画像を認識できる。他のディスプレイの例は、有機発光ダイオード(OLED)ディスプレイを含む。いくつかの例では、可視化デバイス213は、当分野で既知の技術を用いて、ユーザの網膜上に3D画像を投影するように動作することができる。
いくつかの例では、画面520は、導波路とも呼ばれるシースルーのホログラフィックレンズを含んでよく、ホログラフィックレンズは、液晶オンシリコン(LCOS)ディスプレイデバイス等のディスプレイによって、レンズを通して(例えば、その向こうに)現実世界の物体を見ながら、レンズ内及びユーザの網膜上に投影されたホログラフィック画像を見ることができる。エルコスは、光エンジンまたはプロジェクタとも呼ばれ、可視化デバイス213内のホログラフィック投影システム538の例として動作する。言い換えると、可視化デバイス213は、仮想画像をユーザに提示するための1つまたは複数のシースルーのホログラフィックレンズを含んでよい。よって、いくつかの例では、可視化デバイス213は、例えば、ホログラフィックレンズによって形成された3D画像を画面520を介してユーザの網膜上に投影するように動作することができる。このようにして、可視化デバイス213は、例えば、仮想画像が現実世界環境の一部を形成して見えるように、画面520を通して見られる現実世界ビュー内で、ユーザに3D仮想画像を提示するように構成されてよい。いくつかの例では、可視化デバイス213は、米国ワシントン州レドモンドのマイクロソフト社製のMicrosoft HOLOLENS(商標)ヘッドセット、または、例えば、導波路を含む類似のMR可視化デバイス等の類似のデバイスであってよい。HOLOLENS(商標)デバイスを使用すると、ホログラフィックレンズを通して、ユーザが現実世界シーン、すなわち、現実世界環境の実際の物体を見ることを可能にしながら、ホログラフィックレンズまたは導波路を介して3D仮想物体を提示できる。
図5の例は、ヘッドウェアラブルデバイスとして可視化デバイス213を示すが、可視化デバイス213は、他の形態及びフォームファクタを有してよい。例えば、いくつかの例では、可視化デバイス213は、ハンドヘルドのスマートフォンまたはタブレットであってよい。
可視化デバイス213はまた、例えば、上記のようにシースルーのホログラフィックレンズに投影されたホログラフィック画像としてユーザに見えるユーザインタフェース(UI)522を生成できる。例えば、UI522は、様々な選択可能なウィジェット524を含むことができ、ウィジェットは、図2のMRシステム212等の複合現実(MR)システムとユーザがやりとりするのを可能にする。可視化デバイス213によって提示される画像は、例えば、1つまたは複数の3D仮想物体を含んでよい。UI522の例の詳細は、本開示の他の場所に記載される。可視化デバイス213はまた、ユーザの耳の近くに配置し得るスピーカまたは他の知覚デバイス526を含むことができる。知覚デバイス526は、可視化デバイス213のユーザを支援するために、可聴情報または他の知覚情報(例えば、振動)を伝えることができる。
可視化デバイス213はまた、有線通信プロトコル、または例えば、Wi-Fi、ブルートゥース(登録商標)等の無線プロトコルなどを介して、可視化デバイス213を処理デバイス510に、ならびに/または、ネットワーク208及び/もしくはコンピューティングクラウドに接続する送受信機528を含むことができる。可視化デバイス213はまた、フレーム518に、フレーム518上に、または、フレーム518内に取り付けられた、1つまたは複数の光学カメラ(複数可)530(または、他の光学センサ)及び1つまたは複数のデプスカメラ(複数可)532(または、他のデプスセンサ)等、センサデータを集めるための様々なセンサを含む。いくつかの例では、光学センサ(複数可)530は、MRシステム212のユーザがいる物理的環境(例えば、手術室)の形状をスキャンし、2次元(2D)光学画像データ(モノクロまたはカラー)を収集するように動作可能である。デプスセンサ(複数可)532は、飛行時間型、ステレオ、または深さを決定するための他の既知のもしくは今後開発される技術を採用する等によって、3D画像データを提供し、それによって、3次元の画像データを生成するように動作可能である。他のセンサは、動きの追跡を支援するモーションセンサ533(例えば、慣性質量単位(IMU)センサ、加速度計等)を含むことができる。
MRシステム212は、センサデータを処理することによって、ユーザの環境または「シーン」の幾何学的、環境的、テキスト、または、他のタイプのランドマーク(例えば、角、端、または他の線、壁、床、物体)を規定でき、シーン内の動きを検出できる。例として、様々なタイプのセンサデータを組み合わせる、または融合することができ、その結果、可視化デバイス213のユーザは、シーン内に位置、固定、及び/または移動させることができる3D画像を認識できる。3D画像がシーンに固定される時、ユーザは、3D画像を歩き回り、異なる視点から3D画像を見て、ハンドジェスチャ、音声コマンド、視線(または、方向)、及び/または他の制御入力を用いて、シーン内の3D画像を操作することができる。別の例として、センサデータは、シーン内に見られる物理的物体(例えば、表面、患者の現実の骨等)上に3D仮想物体(例えば、骨モデル)を配置することができ、及び/または、3D仮想物体をシーン内に表示された他の仮想画像と向きを合わせるように処理することができる。いくつかの例では、センサデータは、ユーザが手術室の壁等の表面上に手術計画(または、他のウィジェット、画像または情報)の仮想表現を配置及び固定できるように、処理することができる。さらに、いくつかの例では、センサデータを使用して、手術器具と、手術器具の位置及び/または場所を認識できる。
可視化デバイス213は、例えば、可視化デバイスのフレーム518内に、1つまたは複数のプロセッサ514とメモリ516とを備えてよい。いくつかの例では、1つまたは複数の外部コンピューティングリソース536が、フレーム内プロセッサ(複数可)514及びメモリ516の代わりに、または、それらに加えて、センサデータ等の情報を処理及び記憶する。このように、データの処理及び記憶は、可視化デバイス213内の1つまたは複数のプロセッサ514とメモリ516とによって行われてよい、及び/または、処理要件及び記憶要件の一部は、可視化デバイス213からオフロードされてよい。よって、いくつかの例では、可視化デバイス213の動作を制御する1つまたは複数のプロセッサは、例えば、プロセッサ(複数可)514として、可視化デバイス213内にあってよい。あるいは、いくつかの例では、可視化デバイス213の動作を制御するプロセッサの少なくとも1つは、例えば、プロセッサ(複数可)210として、可視化デバイス213の外部にあってよい。同様に、可視化デバイス213の動作は、いくつかの例では、可視化デバイス内の1つまたは複数のプロセッサ514と、可視化デバイス213の外部の1つまたは複数のプロセッサ210との組み合わせによって部分的に制御されてよい。
例えば、いくつかの例では、可視化デバイス213が図2の文脈にある時、センサデータの処理は、メモリまたはストレージデバイス(複数可)(M)215と共に、処理デバイス(複数可)210によって行うことができる。いくつかの例では、フレーム518に取り付けられたプロセッサ(複数可)514及びメモリ516は、カメラ530、532とモーションセンサ533とによって収集されたセンサデータを処理するための十分なコンピューティングリソースを提供し得る。いくつかの例では、センサデータは、同時位置決め地図作成(SLAM)アルゴリズム、または3Dシーンに2D及び3Dの画像データを処理及びマッピングし、可視化デバイス213の位置を追跡するための他の既知のもしくは今後開発されるアルゴリズムを使用して、処理することができる。いくつかの例では、画像追跡は、Microsoft HOLOLENS(商標)システムによって提供されるセンサ処理及び追跡機能を使用して、例えば、Microsoft HOLOLENS(商標)デバイスに実質的に準拠する可視化デバイス213、または類似の複合現実(MR)可視化デバイス内の1つまたは複数のセンサ及びプロセッサ514によって行われてよい。
いくつかの例では、MRシステム212は、ユーザが操作する制御デバイス(複数可)534を含むことができ、制御デバイス534によって、ユーザは、MRシステム212を操作でき、(マスタまたはオブサーバとして)第三者モードでMRシステム212を使用でき、UI522とやりとりでき、及び/または他の方法で、処理デバイス(複数可)210またはネットワーク208に接続された他のシステムのコマンドまたは要求を提供できる。例として、制御デバイス(複数可)534は、マイクロフォン、タッチパッド、制御パネル、モーションセンサ、またはユーザがやりとりできる他のタイプの制御入力デバイスを含むことができる。
図6は、MRシステムで使用される可視化デバイス213の例示のコンポーネントを示すブロック図である。図6の例では、可視化デバイス213は、プロセッサ514、電源600、ディスプレイデバイス(複数可)602、スピーカ604、マイクロフォン(複数可)606、入力デバイス(複数可)608、出力デバイス(複数可)610、ストレージデバイス(複数可)612、センサ(複数可)614及び通信デバイス616を含む。図6の例では、センサ(複数可)616は、デプスセンサ(複数可)532、光学センサ(複数可)530、モーションセンサ(複数可)533、及び配向センサ(複数可)618を含んでよい。光学センサ(複数可)530は、赤緑青(RGB)ビデオカメラ、赤外線カメラ、または光から画像を形成する他のタイプのセンサ等のカメラを含んでよい。ディスプレイデバイス(複数可)602は、ユーザにユーザインタフェースを提示するための画像を表示してよい。
スピーカ604は、いくつかの例では、図5に示す知覚デバイス526の一部を形成してよい。いくつかの例では、ディスプレイデバイス602は、図5に示す画面520を含んでよい。例えば、図5を参照して記載するように、ディスプレイデバイス(複数可)602は、シースルーのホログラフィックレンズを含んでよく、ホログラフィックレンズは、プロジェクタとの組み合わせで、現実世界環境で現実世界の物体を、レンズを通して見ながら、例えば、ホログラフィック投影システムによってレンズ内及びユーザの網膜上に投影された仮想3Dホログラフィック画像を見ることができる。この例では、仮想3Dホログラフィックオブジェクトは、現実世界環境内に配置されているように見えてよい。いくつかの例では、ディスプレイデバイス602は、LCDディスプレイ画面、OLEDディスプレイ画面などの1つまたは複数のディスプレイ画面を含む。ユーザインタフェースは、特定の患者の仮想手術計画の詳細の仮想画像を提示してよい。
いくつかの例では、ユーザは、様々な方法で、可視化デバイス213とやりとりしてよく、可視化デバイス213を制御してよい。例えば、マイクロフォン606と、関連する音声認識処理回路またはソフトウェアが、ユーザが話す音声コマンドを認識してよく、応答して、手術計画、術中ガイダンス等に関連する様々な機能の選択、起動、または停止等の様々な動作のいずれかを行ってよい。別の例として、センサ614の1つまたは複数のカメラまたは他の光学センサ530は、ジェスチャを検出し、解釈して、上記のような動作を行ってよい。さらなる例として、センサ614は、視線方向を感知し、本開示の他の場所に記載するような様々な動作を行ってよい。いくつかの例では、入力デバイス608は、例えば、1つまたは複数のボタン、キーパッド、タッチスクリーン、ジョイスティック、トラックボール、及び/または他の手動の入力媒体を含むハンドヘルドコントローラを介してユーザから手動入力を受信してよく、手動のユーザ入力に応答して、上記のような様々な動作を行ってよい。
上記のように、手術ライフサイクル300は、術前フェーズ302を含んでよい(図3)。1人または複数のユーザが、術前フェーズ302で整形外科手術システム100を使用してよい。例えば、整形外科手術システム100は、特定の患者の対象とする解剖学的構造に合わせてカスタマイズされ得る仮想手術計画を1人または複数のユーザが生成するのを支援するための仮想計画システム102を含んでよい。本明細書に記載のように、仮想手術計画は、特定の患者の対象とする解剖学的構造に対応する3次元仮想モデルと、対象とする解剖学的構造を修復するために特定の患者に適合された、または、対象とする解剖学的構造を修復するために選択された1つまたは複数の人工コンポーネントの3次元モデルとを含んでよい。仮想手術計画はまた、手術を行う時に、例えば、骨表面または組織の準備をし、このような骨表面または組織に対して埋め込み可能な人工ハードウェアを配置する時に、外科医をガイドするガイダンス情報の3次元仮想モデルを含んでよい。
図7は、ユーザの集合が術前フェーズ302中、整形外科手術システム100のMRシステムを使用する例示の環境を示す概念図である。図7の例において、外科医が、第1のMRシステム700A(例えば、MRシステム212)の可視化デバイス(例えば、可視化デバイス213)を使用(例えば、着用)してよい。MRシステム700Aの可視化デバイスは、術前フェーズ302中、MR術前計画コンテンツ702を外科医に提示してよい。本開示の他の箇所に詳述するように、MR術前計画コンテンツ702は、外科医が手術を計画するのを支援してよい。
さらに、図7の例において、1人または複数の他のユーザが、整形外科手術システム100のMRシステムの可視化デバイスを使用して、MR術前計画コンテンツ702を見てよい。例えば、患者が、術前フェーズ302中、第2のMRシステム700Bの可視化デバイスを使用してよい。MRシステム700Bの可視化デバイスは、MR術前計画コンテンツ702を患者に提示してよい。例えば、本開示の他の箇所に詳述するように、MR術前計画コンテンツ702は、仮想3Dモデル情報を含んでよく、仮想モデル情報は、患者の現在の状態及び患者に行われる手術の1つまたは複数を患者が理解するのを支援するためにMRを用いて提示される。
図7の例において、看護師または他のヘルスケア専門家が、術前フェーズ302中、第3のMRシステム700Cの可視化デバイスを使用してよい。MRシステム700Cの可視化デバイスは、MR術前計画コンテンツ702を看護師または他のヘルスケア専門家に提示してよい。例えば、一例では、MR術前計画コンテンツ702は、手術を行う前に看護師が手術を理解するのを支援してよい。
さらに、図7の例において、第2の外科医が、第4のMRシステム700Dの可視化デバイスを使用してよい。MRシステム700Dの可視化デバイスは、MR術前計画コンテンツ702を第2の外科医に提示してよい。これは、外科医たちが協働して、患者の手術計画を開発及び見直すのを可能にし得る。例えば、外科医は、同じ術前計画コンテンツ702を同じ時または異なる時に見て、操作してよい。MRシステム700A、700B、700C及び700Dは、本明細書では集合的に「MRシステム700」と呼ばれてよい。
従って、上記例に記載されるように、上記個人の2人以上は、(例えば、第1の外科医、患者、看護師及び第2の外科医)は、同じまたは異なるMR術前計画コンテンツ702を同時に見ることができる。2人以上の個人が同じMR術前計画コンテンツ702を同時に見ている例では、2人以上の個人は、同じMR術前ガイダンスコンテンツ702を同じまたは異なる視点から同時に見てよい。さらに、いくつかの例では、上記の個人の2人以上は、同じまたは異なるMR術前計画コンテンツ702を異なる時に見ることができる。術前計画コンテンツ702は、手術計画の情報モデルと、骨及び/または組織等の患者の解剖学的構造を表す仮想3Dモデル情報を単独で、または、手術ステップ及び/またはインプラントの配置と位置決めを表す仮想3Dモデル情報と組み合わせて含んでよい。術前計画コンテンツ702の例は、肩関節形成の手術計画と、肩甲骨及び/または関節窩骨を表すまたは上腕骨を表す仮想3Dモデル情報とを、骨、または、骨上もしくは骨内に配置されるインプラントに適用される器具の仮想3Dモデル情報と共に含んでよい。いくつかの例では、複数のユーザが、術前計画コンテンツ702を変更及び操作可能であってよい。
図8は、手術ライフサイクル300の術前フェーズ302の例示のステップを示すフローチャートである。他の例では、術前フェーズ302は、より多くの、より少ない、または異なるステップを含んでよい。さらに、他の例では、図8のステップの1つまたは複数は、異なる順番で行われてよい。いくつかの例では、ステップの1つまたは複数は、仮想計画システム102(図1)または202(図2)等の手術計画システム内で自動的に行われてよい。
図8の例では、対象領域のモデルが生成される(800)。例えば、対象領域のスキャン(例えば、CTスキャン、MRIスキャン、または他のタイプのスキャン)が行われてよい。例えば、対象領域が患者の肩である場合、患者の肩のスキャンが行われてよい。さらに、対象領域の病変が分類されてよい(802)。いくつかの例では、対象領域の病変は、対象領域のスキャンに基づいて分類されてよい。例えば、対象領域がユーザの肩である場合、外科医は、患者の肩のスキャンに基づいて、患者の肩の何が悪いかを決定してよく、例えば、一次性変形性肩関節症(PGHOA)、腱板断裂関節症(RCTA)の不安定性、重度腱板断裂(MRCT)、リウマチ性関節炎、外傷後関節炎、及び変形性関節症などの、分類または診断を示す肩分類を提供してよい。
さらに、手術計画が、病変に基づいて選択されてよい(804)。手術計画は、病変に対処する計画である。例えば、対象領域が患者の肩である例では、手術計画は、解剖学的肩関節形成、逆肩関節形成、外傷後の肩関節形成、または以前の肩関節形成に対する訂正から選択されてよい。次に、手術計画を患者に合わせて調整してよい(806)。例えば、手術計画を調整することは、選択された手術計画の実行に必要な手術アイテムの選択及び/またはサイジングを伴ってよい。さらに、手術計画は、骨棘の存在など、患者に固有の問題に対処するために、患者に合わせて調整されてよい。本開示の他の箇所に詳述するように、1人または複数のユーザが、整形外科手術システム100の複合現実システムを使用して、手術計画を患者に合わせて調整してよい。
次に、手術計画を見直してよい(808)。例えば、手術計画を実行する前に、顧問外科医が、手術計画を見直してよい。本開示の他の箇所に詳述するように、1人または複数のユーザが、整形外科手術システム100の複合現実(MR)システムを使用して、手術計画を見直してよい。いくつかの例では、外科医は、MRシステムを使用して、UI及び表示された要素とやりとりして、例えば、異なる手順を選択する、インプラントのサイジング、形状もしくは位置を変更する、または、インプラントを収容する骨表面の切断もしくはリーミングの角度、深さもしくは量を変更することによって、手術計画を修正してよい。
さらに、図8の例では、手術計画の実行に必要な手術アイテムが要求されてよい(810)。
本開示の以下のセクションに記載されるように、整形外科手術システム100は、図8の術前ステップの1つまたは複数を行う時に様々なユーザを支援してよい。
図9は、本開示の例による、手術症例を選択するための例示のウェルカム画面を示す。ウェルカム画面は、MR可視化デバイス213によってユーザに提示されてよく、メニュー904を表示する。メニューは、ユーザがシステム200のストレージシステム206(図2)またはMR可視化デバイス213のメモリもしくはストレージデバイス215(図2)に記憶され、そこから読み出される特定の患者の手術計画をスクロールし、選択するのを可能にする。
図10は、例えば、図9のウェルカム画面から選択された特定の患者の手術計画に対して生成される、本開示の例による、複合現実システムのユーザインタフェースのページの例を示す。可視化デバイス213を使用して、ユーザは、UI522を認識でき、UI522とやりとりできる。図10に示す例では、UI522は、肩関節形成術における上腕骨及び関節窩への動作の様々な手術ステップにわたる選択可能なボタン1002を有する手術ワークフローを表すワークフローバー1000を含む。ボタン1002の選択は、ハンドジェスチャ、音声コマンド、視線方向、接続されたレンズ、及び/または他の制御入力等を使用して、ユーザがやりとりできる様々な選択可能なウィジェットの表示につながり得る。ウィジェットの選択により、MRシステム212の動作の様々なモードを起動でき、MRシステム212によって生成された情報もしくは画像を表示でき、ユーザが情報及び画像をさらに制御及び/または操作するのを可能にでき、さらなる選択可能なメニューもしくはウィジェットにつながり得る。
ユーザはまた、可視化デバイス213、または視線方向、ハンドジェスチャ及び/または音声コマンドを検出する他のデバイス等によって、ユーザの好みに従って、表示されたウィジェットのいずれかを操作し、移動し、方向付けることによって、UI522を編集またはカスタマイズできる。さらに、ユーザに表示されるウィジェットの場所は、シーンに対して固定できる。従って、ユーザの視線(すなわち、目の方向)は、ユーザインタフェース522、他の仮想画像、及び/またはシーンに物理的に存在する現実の物体(例えば、患者、器具セット等)の他の特徴を見るために移動し、ウィジェットは固定されたままで、他の特徴及び物体のユーザのビューを邪魔しない。さらに別の例として、ユーザは、ウィジェットまたは任意の他の表示された画像もしくは情報の不透明度もしくは透明度を制御できる。ユーザはまた、MRシステム212の使用中はいつでも、ワークフローバー1000のボタン1002間を任意の方向にナビゲートでき、任意のボタン1002を選択できる。ウィジェット、情報、画像、または他の表示された特徴の選択及び操作は、可視化デバイス213、またはユーザの視線方向、手の動き、音声コマンドもしくはこれらの任意の組み合わせを検出する他のデバイスに基づいて実施することができる。
図10の例では、UI522は、肩修復手術で使用するように構成され、例として、「ウェルカム」ページ、「計画」ページ、「移植片」ページ、「上腕骨切断」ページ、「ガイド取付」ページ、「関節窩リーミング」ページ、及び「関節窩インプラント」ページに対応するワークフローバー1000上のボタン1002を含む。「ガイド取付」ページの提示は、いくつかの例ではオプションであってよく、関節窩リーミングは、仮想ガイダンスを使用して、関節窩ガイドを適用することなく、達成されてよい。
図10に示すように、UI522のこの例における「計画」ページは、(術前及び術後の情報を含む)選択された計画に対応する手術計画ファイル(例えば、pdfファイルまたは他の適切な媒体フォーマット)の画像1006を含む選択された手術計画に対応する様々な情報及び画像、3D仮想骨モデル1008及び3D仮想インプラントモデル1010並びに3D仮想モデル1008、1010(3D画像と呼ばれてよい)を操作するための3D画像ナビゲーションバー1012、選択された手術計画に関連付けられた複数の平面のビューを見るためのビューアー1014及びビューアーナビゲーションバー1016を表示する。MRシステム212は、術前フェーズ302中、ユーザに仮想MR物体として「計画」ページを提示してよい(図3)。例えば、MRシステム212は、図8のステップ802、804、806、808に記載されるように、ユーザが病変を分類し、手術計画を選択し、手術計画を患者に合わせて調整し、手術計画を訂正し、手術計画を見直すのを支援するためにユーザに「計画」ページを提示してよい。
手術計画画像1006は、ストレージシステム206のデータベースに記憶された患者の術前(及び、オプションで、術後)の患者情報及び手術計画を集めたものであってよい。いくつかの例では、手術計画画像1006は、ユーザが閲覧できる複数ページのドキュメントに対応し得る。例えば、ページのさらなる画像は、患者情報、対象とする解剖学的構造に関する情報、術後の測定値、及び対象とする解剖学的構造の様々な2D画像を表示できる。さらなるページ画像は、例として、解剖学的構造の測定値、並びに、インプラントのサイズ、タイプ及び寸法など、患者に対して選択されたインプラントに関連する計画情報、対象とする解剖学的構造の平面画像、手術計画の実行を支援する患者に合わせて選択された手術ガイドの位置決め及び向きを示す3Dモデルの画像等を含み得る。
手術計画画像1006は、任意の適切なフォーマット及び配置で表示することができ、本明細書に記載のシステム及び技術の他の実施態様は、計画画像1006を使用する用途のニーズに応じて異なる情報を含み得ることを理解すべきである。
図10を再び参照すると、UI522の計画ページはまた、3D仮想骨モデル1008及びインプラントコンポーネントの3Dモデル1010の画像と、3D仮想モデル1008、1010を操作するためのナビゲーションバー1012とを提供し得る。例えば、ナビゲーションバー1012のアイコンを選択または選択を解除すると、ユーザが、様々なインプラントコンポーネント1010と共に、またはそれ無しに、3D仮想骨モデル1008の異なる部分を選択的に見るのを可能にする。例えば、仮想骨モデル1008の肩甲骨とインプラントモデル1010の関節窩インプラントとの選択が解除されて、上腕骨と上腕骨インプラントコンポーネントのみが見える。他のアイコンは、ユーザがズームインまたはズームアウトするのを可能にすることができ、ユーザはまた、例えば、視線方向、ハンドジェスチャ及び/または音声コマンドを使用して、3D仮想モデル1008、1010を回転させることができ、向きを変えることができる。
UI522の計画ページはまた、3D仮想骨モデル1008及びインプラントコンポーネントの3Dモデル1010の画像と、3D仮想モデル1008、1010を操作するためのナビゲーションバー1012とを提供する。例えば、図12に示すように、ナビゲーションバー1012上のアイコン1218の選択または選択解除(図12)によって、ユーザは、様々なインプラントコンポーネント1010と共に、またはそれ無しに、3D仮想骨モデル1008の異なる部分を選択的に見ることができる。この例では、仮想骨モデル1008の肩甲骨とインプラントモデル1010の関節窩インプラントとの選択が解除されて、上腕骨と上腕骨インプラントコンポーネントのみが見える。アイコン1220(図12)は、ユーザがズームインまたはズームアウトするのを可能にし、ユーザはまた、視線方向、ハンドジェスチャ及び/または音声コマンドを使用して、3D仮想モデル1008、1010を回転させることができ、向きを変えることができる。
図11Aの例では、「計画」ページのナビゲーションバー1012の可動域アイコン1102を選択すると、可動域モードが起動する。可動域モードでは、ユーザは、患者のための術前手術計画に従って埋め込まれた人工インプラントと共に解剖学的構造の様々な異なる動きをシミュレーションすることによって、インプラントコンポーネント1010の選択、配置及び/または位置決めをテストまたは確認できる。この例では、視線方向、モーションセンサもしくは他の制御デバイスによって検出される手の動き、及び/または音声コマンドを使用することによって、ユーザは、内転、外転、内/外旋、挙上、屈曲もしくは伸展、または日常の機能的タスクに対応する動き等の任意の他の関節の動きのシミュレーション等の解剖学的動きを選択することができる。図11Aの例では、可動域メニュー1104は、異なるタイプの動きに対応する選択可能な要素を含む。
動き(すなわち、「内転」「外転」「内旋0度」「外旋0度」「伸展」及び「屈曲」)の1つを選択するためのユーザ入力の指示を受信することに応答して、MRシステム212は、選択された動きのタイプを示す3D仮想モデル1008のMRアニメーションを提示してよい。例えば、ユーザが外転を選択した場合、MRシステム212は、3D仮想モデル1008の上腕骨が3D仮想モデル1008の肩甲骨に対して垂直に回転するアニメーションを提示してよい。さらに、図11Aの例では、可動域メニュー1104は、「全ての動きを再生」要素1125を含む。要素1125を選択するユーザ入力の指示を受信することに応答して、MRシステム212は、3D仮想モデル1008の上腕骨が可動域メニュー1104に列挙された動きのタイプのそれぞれで動くアニメーションを提示してよい。
可動域メニュー1104はまた、動きのタイプのそれぞれに対してインピンジメント角度を列挙している。図11Aの例では、動きのタイプのインピンジメント角度は、そのタイプの動きを行う時、骨のインピンジメントが生じる角度である。骨のインピンジメントは、ある骨が他の骨に接触する時、または、移動する埋め込まれた外科的コンポーネント(例えば、上腕骨、距骨インプラント、脛骨インプラント等に接続されたカップ部材)が骨に接触する時に生じる。骨のインピンジメントは、痛みを伴う場合があり、骨の摩耗を引き起こす場合がある。骨のインピンジメントは、2つの硬い表面間の接触を表すので、可動域に対する理論的な制限も表す。図11Aの例では、インピンジメント角度は、仮想手術計画で指定されたコンポーネントのサイズ、位置及び角度と共に、インプラントコンポーネントを含む所与の仮想手術計画に対して決定された角度を表す。
MRシステム212を用いたシミュレーションされた可動域の可視化は、外科医が手術計画を確認するのを支援することができる、または、外科医が術前手術計画を更新もしくは修正することにつながる場合がある。例えば、図11Aにおいて、ユーザは、可動域メニュー1104の内転ボタンを選択した。内転シミュレーション中の肩甲骨と上腕骨取付カップコンポーネントの間の衝突1106が可視化デバイス213によるMR可視化において、(例えば、赤で)強調表示される。別の例では、距骨と脛骨インプラント間または距骨インプラントと脛骨の間の衝突が、可視化デバイス213によるMR可視化において強調表示されてよい。ユーザをさらに支援するために、MRシステム212は、3Dモデルを回転させてよく、3Dモデルの周りを巡ってよく、3Dモデルの一部を隠すもしくは見せてよく、または、3Dモデルを観察するための他のアクションを行ってよい。
骨のインピンジメント(すなわち、衝突)が患者の通常の可動域内の角度で生じる場合、これは、手術計画の一定のパラメータ(例えば、インプラントコンポーネントのサイズ、タイプ、位置または向き)における変更が必要な可能性があることを外科医に示し得る。しかしながら、このような衝突が患者の通常の可動域外の角度で生じる場合、外科医が手術計画のパラメータを変更する必要が無いことがある。むしろ、衝突が生じる前に患者の他の組織が、動きを止める場合がある。例えば、図11Aの例では、上腕骨に付着した患者の体側または腱が、衝突1106が実際に生じるのを防ぎ得る。しかしながら、外転の通常の可動域は180°で、メニュー1104は、骨のインピンジメントが60°の角度で生じるであろうことを示している。従って、図11Aに示す手術計画の現在のパラメータでは、患者は、水平位置に腕を上げることさえできないであろう。本開示は、「早すぎる衝突」という用語を使用して、通常の可動域内で生じる骨のインピンジメントを指し得る。
衝突1106等の衝突を可動域のアニメーションのMR提示の一部として見せることによって、外科医が手術計画の一定のパラメータの変更の仕方を理解するのを支援してよい。例えば、上腕骨と肩峰または烏口突起のいずれかとの間の骨のインピンジメントは、外転中に患者の可動域を制限し得る。従って、この例では、外科医は、外転中に患者の上腕骨と肩峰の間で早すぎる骨の衝突が生じるが、外転中に患者の上腕骨と烏口突起の間では衝突が生じないことを見ることによって、ボールコンポーネントを後方にオフセットすべきであると決定でき得る。しかしながら、上腕骨と、肩峰及び烏口突起の両方との間で早すぎる骨の衝突がある場合、外科医は、異なるサイズのボールコンポーネントまたはウェッジが必要であると決定し得る。外科医が3D仮想骨モデル及び3D仮想インプラントモデルを見る、回転させる、それらの周りを巡る、または他の方法でそれらとやりとりすることを可能にすると、外科医がこの決定を行うのを支援し得る。
図11Bは、本開示の技術による、手術パラメータ選択を支援する例示の動作を示すフローチャートである。従って、本開示の技術によると、MRシステム212または術前手術計画システム202(図2)等のコンピューティングシステムは、患者の医療画像に基づいて、患者の関節の3次元(3D)仮想モデルを生成してよい(1108)。関節は、肩関節、足首、膝、肘または手首等の様々なタイプの関節であってよい。
さらに、コンピューティングシステムはまた、手術パラメータのセットに基づいて、関節の3D仮想インプラントモデルを生成してよい(1110)。関節が肩関節である例では、3D仮想インプラントモデルは、図11Aに示すように、ボールコンポーネント、カップコンポーネント、及び上腕骨ステムコンポーネントを含んでよい。他の関節または肩関節への他の手術の仮想インプラントモデルは異なるコンポーネントを含んでよい。手術パラメータのセットは、関節のインプラントの1つまたは複数のコンポーネントのサイズ、形状、位置、またはコンポーネントの他の側面を示してよい。3D仮想インプラントモデルを生成することは、手術パラメータのセットが示すサイズを有するインプラントのコンポーネントに対応する仮想物体を選択及び配置することを含んでよい。
さらに、コンピューティングシステムは、3D仮想骨モデル及び3D仮想インプラントモデルに基づいて複数のインピンジメント角度を決定してよい(1112)。複数のインピンジメント角度の各インピンジメント角度は、関節の複数の動きのタイプのうちの異なる動きのタイプに対応する。複数のインピンジメント角度の各インピンジメント角度につて、各インピンジメント角度は、各インピンジメント角度に対応する動きのタイプ中に骨のインピンジメントが生じる角度を示す。いくつかの例では、コンピューティングシステムは、3D仮想骨モデル及び3D仮想インプラントモデルのコンポーネントを動かすことと、3D仮想骨モデルと3D仮想インプラントモデルの仮想物体間の衝突が生じる場所を検出することによって、インピンジメント角度を決定してよい。関節が肩関節である例では、動きのタイプは、内転、外転、内旋、外旋、伸展及び屈曲を含んでよい。関節が足関節である例では、動きのタイプは、底屈及び背屈を含んでよい。
可視化デバイス213(図2)等のMR可視化デバイスは、3D仮想骨モデル、3D仮想インプラントモデル、及び複数のインピンジメント角度を示す視覚的要素を含むMR可視化を提示してよい(1114)。図11Aは、このようなMR可視化の例を示す。MR可視化デバイスは、手術ライフサイクル中の様々な時にMR可視化を提示してよい。例えば、MR可視化デバイスは、術前フェーズ302(図3)、術中フェーズ306、または術後フェーズ308中にMR可視化を提示してよい。よって、外科医または他のユーザが、手術を計画している時にMRの可動域の可視化を、手術の過程中に、例えば仮想モデルとして、例えば、仮想モデルとして単独で、または、実際の患者の解剖学的構造を見ることと仮想の術中ガイダンス要素の提示とを組み合わせて、または、手術完了後に、例えば、仮想モデルとして、見てよい。
さらに、MR可視化デバイスは、3D仮想骨モデルと3D仮想インプラントモデルの2つ以上のコンポーネントが衝突する、例えば、インピンジメント1106を生み出す、1つまたは複数の点をMR可視化で視覚的に提示してよい(1116)。いくつかの例では、MR可視化デバイスは、MR可視化において、1つまたは複数の点の領域に1つまたは複数のインピンジメント識別子を提示することによって衝突点を示してよい。インピンジメント識別子は、輝く領域、矢印、強調表示された領域、色、点滅する要素、幾何学的図形、輪郭線を含んでよく、または他のタイプのインジケータを使用して衝突点を視覚的に示してよい。
いくつかの例では、MR可視化デバイスは、3D仮想骨モデル及び3D仮想インプラントモデルが複数の動きのタイプのある動きのタイプに従って動くアニメーションを提示してよい。いくつかの例では、MR可視化デバイスは、3D仮想骨モデル及び3D仮想インプラントモデルが複数の動きのタイプの各動きに従って動くアニメーションを提示してよい。いずれの例でも、MR可視化デバイスは、メニュー1104の動きのタイプに対応する要素を選択するハンドジェスチャ、または音声コマンド等のユーザ入力の指示を受信することに応答して、アニメーションを提示してよい。例えば、図11Aに関して、MR可視化デバイスは、メニュー1104の内転要素、メニュー1104の外転要素、または、メニュー1104の「全ての動きを再生」要素を選択するユーザ入力の指示を受信することに応答して、外転/内転の動きのタイプに従って肩甲骨に対して上腕骨が動くアニメーションを提示してよい。MR可視化デバイスがアニメーションを提示する例では、MR可視化デバイスは、アニメーション中、3D仮想骨モデル及び3D仮想インプラントモデルの2つ以上のコンポーネントが衝突する1つまたは複数の点を視覚的に示してよい。さらに、いくつかの例では、MR可視化デバイスは、アニメーション中、3D仮想骨モデル及び3D仮想インプラントモデルの2つ以上のコンポーネントが衝突する時に可聴または触覚通知を生成してよい。例えば、MR可視化デバイスのスピーカが、アニメーションが衝突が生じるフレームを示す時、可聴通知を(例えば、ビープまたはクリック音として)出力してよい。MR可視化デバイスの振動ユニットは、衝突が生じる時、振動として触覚通知を生成してよい。
本開示の他の箇所に記載するように、ユーザは、MR可視化におけるインピンジメント角度及び衝突点に関する情報を使用して、手術パラメータを調整するかどうかを決定してよい。
図10の例に戻ると、可視化デバイス213が提示する計画ページはまた、ユーザが患者画像データを見て、表示されたスライスと向きの間を切り替えるのを可能にする複数平面の画像ビューアー1014(例えば、DICOMビューアー)とナビゲーションバー1016とを含む。例えば、ユーザは、ユーザが複数平面の画像ビューアー1014で患者の身体の2Dの矢状面と冠状面を見ることができるように、ナビゲーションバー1016の2D平面アイコン1026を選択できる。
図10のワークフローバー1000は、特定の整形外科手術(ここでは、肩修復手術)の手術ワークフローのステップに対応するさらなるページを含む。図10の例では、ワークフローバー1000は、肩修復手術の手術ワークフローのステップのワークフローページに対応する「移植片」「上腕骨切断」「ガイド取付」「関節窩リーミング」及び「関節窩インプラント」とラベル付けされた要素を含む。一般的に、これらのワークフローページは、手術の計画中または実行中にヘルスケア専門家にとって有用であり得る情報を含み、これらのページを選択すると提示される情報は、手術中の外科医を妨害したり注意力を奪ったりすることを最小限にするように、選択及び編成される。従って、表示される情報の量は、最適化され、表示される情報の有用性は最大にされる。これらのワークフローページは、手術のステップを通して外科医、看護師または他の医療技師をガイドするように術中フェーズ306(図3)の一部として使用されてよい。いくつかの例では、これらのワークフローページは、手術ワークフローの様々なステップに関与する物体の3次元モデルをユーザが可視化できるように術前フェーズ302(図3)の一部として使用されてよい。
図示の例においては、ユーザ(例えば、外科医)が選択できる各ワークフローページは、(図13に示す)拡張手術ウィジェット1300等の拡張手術ウィジェットを含むことができる。拡張手術ウィジェットは、選択されると、MRシステム212の動作モードを起動し、動作モードにおいて、可視化デバイス213(図2)を使用している(例えば、着用している)ユーザは、患者の骨上に投影及び適合された手術計画の詳細(例えば、詳細の仮想画像)を見ることができ、術中に手術を支援する計画を使用することができる。一般に、拡張手術モードによって、外科医は、対象とする患者の解剖学的構造(例えば、関節窩)の仮想3Dモデルを観察される現実の解剖学的構造に位置合わせすることができ、それによって、外科医は、以下により詳細に記載するように、仮想手術計画を使用して、現実の手術の実施を支援することができる。外科医が実際の手術中に使用する、手術の各ステップのための異なる拡張手術ウィジェットがあってよい。異なるステップのための拡張手術ウィジェットは、異なるテキスト、コントロール、アイコン、グラフィック等を含んでよい。
肩修復手術のこの例では、図10を参照すると、外科医が使用できるUI522のワークフローページは、「移植片」「上腕骨切断」「ガイド取付」「関節窩リーミング」及び「関節窩インプラント」を含む。「移植片」ステップ及び「ガイド取付」ステップは、オプションであってよい。例えば、あらゆる処置で移植片が必要なわけではなく、MRリーミング軸ガイダンスが可視化デバイス213によってユーザに提示される場合、関節窩リーミングガイドの使用が必要でない場合がある。ユーザは、術前フェーズ302中、術中フェーズ306中、または、他の時に、ワークフローページを見てよい。患者に対して手術計画を調整し、手術計画のステップを見直し、他のタスクを行うために、術前フェーズ302中にワークフローページを見ることは外科医にとって有用であり得る。術中フェーズ306のワークフローページを見て、対応する手術ステップに関与する患者の解剖学的構造に関して外科医の記憶を新たにし、対応する手術ステップ中のある特定のアクションの実行方法に関する情報を取得し、手術ステップに必要な手術器具、インプラント、または他の手術アイテムの在庫を調べることは外科医にとって有用であり得る。上記のように、各ワークフローページは一般に、特定の手術のワークフローのステップに対応する。従って、例えば、移植片ページは、特定の患者に適合された骨移植片1402(図14)をユーザが可視化するのを可能にし、必要に応じて、骨移植片1402の形状及び寸法を選択、設計及び/または修正するための十分な情報をユーザに提供する。例として、骨移植片1402は、上腕骨または他の骨からとった骨移植片であってよい。
別の例として、図15Aを参照すると、上腕骨切断ページは、上腕骨の3Dモデル1504及び上腕骨インプラントコンポーネントの3Dモデル1506と、例えば、上腕骨頭の一部分を取り除くための回転鋸または往復鋸等の切断ツールを適用する上腕骨頭の切断面1508とをユーザに提示する。このページのメニュー1510上の他のアイテムを選択することに応答して、可視化デバイス213は、上腕骨インプラントコンポーネントの3Dモデル1506を現在の画像から取り除くことができ、例として、切断前及び切断後の上腕骨頭の画像を提供できる。
図15B~15Dは、本開示の例による、図15Aの上腕骨切断ページの隠れている仮想物体の例である。上記のように、図15Aのメニュー1510は、患者の上腕骨のコンポーネント及びインプラントコンポーネント1506の3Dモデルをユーザが選択的に追加または取り除くのを可能にする。例えば、図15B~15Dの例では、ユーザは、インプラントコンポーネント1506の3Dモデルを取り除いている。図15Bにおいて、ユーザは、上腕骨及び上腕骨頭を見る選択をした。図15Cにおいて、ユーザは、上腕骨を見るが上腕骨頭を見ない選択をした。図15Dにおいて、ユーザは、上腕骨頭を見るが上腕骨を見ない選択をした。この例では、上腕骨頭無しの上腕骨の提示は、手術の途中で、例えば、上腕骨ボールまたはプレートコンポーネント等のインプラントコンポーネントを上腕骨上に配置できるように、仮想手術計画に従って上腕骨頭の一部を除去するために上腕骨切断面が見えるように選択され得る。
別の例として(図示せず)、骨棘アイテムが、可視化デバイス213によるメニューページに選択のために提示されてよい。選択されると、骨棘評価機能が有効にされ、可視化デバイス213によってユーザに提示されるMR可視化において、患者の骨上の骨棘が、識別、投影、強調表示または隠され得る。
図16を参照すると、ガイド取付ページは、実際の手術中、ガイド1600の効率的で正確な配置を支援するために、例えば、患者の関節窩1602上で、関節窩骨にリーミングガイドピンを配置するためのドリルのガイダンスのために、ユーザが、患者固有のまたは患者に適合したガイド1600の物理的位置を可視化するのを可能にする。例えば、音声コマンド、視線方向及び/またはハンドジェスチャの選択によって、メニュー1604上でアイテムを選択することによって、3D画像から特徴を取り除くことができる、またはリーミング軸1606等の手術計画の他のパラメータを追加することができる。ガイド1600の配置は、可視化デバイス213が、物理的ガイドではなく、仮想リーミング軸または他の仮想ガイダンスを提示して、関節窩骨にリーミングガイドピンを配置するためにドリルをガイドする手順では不要である。可視化デバイス213によって提示される仮想ガイダンスまたは他の仮想物体は、例えば、1つまたは複数の3D仮想物体を含んでよい。いくつかの例では、仮想ガイダンスは、2D仮想物体を含んでよい。いくつかの例では、仮想ガイダンスは、3Dと2Dの仮想物体の組み合わせを含んでよい。
図17を参照すると、関節窩インプラントページは、ユーザが、関節窩1602上の関節窩インプラント1700及び骨移植片1402の向き及び配置を可視化するのを可能にする。
本明細書に図示及び記載されたワークフローページは例であり、UI522がより少ない、より多い、または異なるページを含むことができることを理解されたい。例えば、足首、足、膝、股関節または肘等、患者の他の解剖学的構造が関与する手術のためのMRシステム212の使用では、UI522は、それらの手術の手術ワークフローに固有の特定のステップに対応するページを含み得る。
MRシステム212のUI522に表示される画像は、手術環境外または手術環境内で、第三者モードで見ることができ、手術環境外または手術環境内で複数のユーザが同時に見ることができる。手術環境等、状況によっては、外科医にとって、制御デバイス534を使用して、例として手術室の壁または他の表面に一定の情報を固定することにより、情報が手術中に外科医の視野を邪魔しないように、可視化デバイス213を方向付けることが有用な場合がある。例えば、手術計画の関連する手術ステップがて選択的に表示されて、外科医または他のケア提供者によって使用され、手術をガイドすることができる。
様々ないくつかの例において、手術ステップの表示は、関連するステップのみが手術中の適切な時に表示されるように自動的に制御することができる。
上記のように、手術ライフサイクル300は、手術が行われる術中フェーズ306を含んでよい。1人または複数のユーザが、術中フェーズ306に整形外科手術システム100を使用してよい。
図18は、1人または複数のユーザの集合が術中フェーズ306中に整形外科手術システム100のMRシステムを使用する例示の環境を示す概念図である。図18の例では、外科医が、第1のMRシステム1800A(例えば、MRシステム212)の可視化デバイス(例えば、可視化デバイス213)を着用してよい。MRシステム1800Aの可視化デバイスは、術中フェーズ306中にMR術中ガイダンスコンテンツ1802を外科医に提示してよい。本開示の他の箇所に詳述するように、MR術中ガイダンスコンテンツ1802は、外科医が手術を行うのを支援し得る。
さらに、図18の例では、1人または複数の他のユーザが、整形外科手術システム100のMRシステムの可視化デバイスを使用して、MR術中ガイダンスコンテンツ1802を見てよい。例えば、看護師が、整形外科手術システム100のMRシステム1800Bの可視化デバイスを使用してよい。さらに、図18の例では、技師が、整形外科手術システム100のMRシステム1800Cの可視化デバイスを使用してよい。図18の例では、第2の外科医が、整形外科手術システム100のMRシステム1800Dの可視化デバイスを使用してよい。MRシステム1800A、1800B、1800C及び1800Dは、本明細書では集合的に「MRシステム1800」と呼ばれてよい。いくつかの例では、テレビまたは他のディスプレイデバイスが、仮想物体を含み得る外科医のビューを看護師、外科医または技師等の1人または複数の他の個人に提示してよい。
上記個人の2人以上(例えば、第1の外科医、看護師、技師、第2の外科医)は、同じまたは異なるMR術中ガイダンスコンテンツ1802を同時に見てよい。個人の2人以上が同じMR術中ガイダンスコンテンツ1802を同時に見ている例では、2人以上の個人は、同じMR術中ガイダンスコンテンツ1802を同じまたは異なる視点から同時に見てよい。
1人または複数のユーザが、術中環境で整形外科手術システム100を使用してよい。例えば、ユーザは、ユーザが術中に仮想手術計画を見ることができるように、MRシステム1800によって提示されるユーザインタフェースを操作してよい。例えば、この例では、ユーザは、対象とする解剖学的構造の3D仮想モデル(例えば、対象とする解剖学的構造の3次元仮想骨モデル)を見てよい。
いくつかの例では、少なくとも1人の外科医を含む1人または複数のユーザが、術中設定で整形外科手術システム100を使用して肩の手術を行ってよい。図19は、肩関節修復手術の例示の段階を示すフローチャートである。上記のように、図19は、肩の手術の例示の手術プロセスを記載する。外科医は、図10の手術プロセスの各ステップ中、可視化デバイス213を着用、または、他の方法で使用してよい。他の例では、肩の手術は、より多い、より少ない、または異なるステップを含んでよい。例えば、肩の手術は、骨移植片を追加するステップ、セメントを追加するステップ、及び/または他のステップを含んでよい。いくつかの例では、可視化デバイス213は、手術ワークフローのステップを通して、外科医、看護師、または他のユーザをガイドする仮想ガイダンスを提示してよい。
図19の例では、外科医が切開プロセスを行う(1900)。切開プロセス中、外科医は、患者の肩関節を露出するための一連の切開を行う。いくつかの例では、MRシステム(例えば、MRシステム212、MRシステム1800A等)が、例えば、どこをどのように切開するべきかを示す仮想ガイダンス画像を表示することによって、外科医が切開プロセスを行うのを支援してよい。
さらに、図19の例では、外科医は、上腕骨切断プロセスを行ってよい(1902)。上腕骨切断プロセス中、外科医は、患者の上腕骨の上腕骨頭の一部を取り除いてよい。上腕骨頭の一部を取り除くことは、外科医が患者の関節窩にアクセスするのを可能にし得る。さらに、上腕骨頭の一部を取り除くことによって、続いて、外科医は、外科医が患者の関節窩に埋め込む計画の関節窩インプラントに適合する上腕骨インプラントで、上腕骨頭の一部を置き換えることが可能になる。
上記のように、上腕骨準備プロセスによって、外科医が患者の関節窩にアクセスできるようになる。図19の例では、上腕骨準備プロセスを行った後、外科医は、可視化デバイス213によって外科医に提示される視野で、仮想関節窩物体を患者の実際の関節窩骨に位置合わせする位置合わせプロセスを行ってよい(1904)。
図20Aは、3D仮想骨モデル1008を患者の現実に観察される骨構造2200に位置合わせする技術2000の例を示す。言い換えると、図20Aは、図2の複合現実システム212等の複合現実システムで実施される、仮想骨モデルを観察される骨に位置合わせするために、例えば、可視化デバイス213によって行われるプロセスフローの例である。以下に説明される図20Bは、物理的位置合わせマーカを用いて、3D仮想骨モデル1008を骨構造2200に位置合わせする別の技術2018を示す。
図20Aをさらに参照すると、3D仮想骨モデル1008は、1つまたは複数の骨の全てまたは一部のモデルであってよい。図20Aのプロセスフローは、図19のステップ1904の位置合わせプロセスの一部として行われてよい。位置合わせプロセスは、初期化及び最適化(例えば、最小化)の2つのステップで行われてよい。初期化中、MRシステム212のユーザは、術前仮想計画システム102から得た情報、((「注視」または「視線」とも呼ばれる)ユーザの目の方向を示す)ユーザの頭部の向き、ユーザの頭部の複数の方向への回転、センサ530、532及び/または533(または他の取得センサ)によって収集されたセンサデータ、及び/または、音声コマンド及び/またはハンドジェスチャと共に、可視化デバイス213を使用して、3D仮想骨モデル1008と観察された骨構造2200との実質的なアライメントを視覚的に達成する。より詳細には、ブロック2002で、仮想骨モデル1008の表面の対象点または領域と、領域の表面の対象点(または、領域)への仮想法線ベクトルとを仮想計画システム102を使用して、術前計画中に識別する。
ブロック2004で、MRシステム212は、識別された対象点(または、領域)をユーザの注視点(例えば、可視化デバイス213の視野の中央の点)につなげる。従って、可視化デバイス213のユーザの頭部がその後、動くまたは回転すると、仮想骨モデル1008も空間内で動くまたは回転する。
肩関節形成術の例では、仮想骨モデル1008の表面の対象点は、BLUEPRINT(商標)計画システム等の仮想計画システム102を使用して決定することができる仮想関節窩のほぼ中心であってよい。いくつかの例では、仮想関節窩のほぼ中心は、機械学習アルゴリズムまたは人工知能システムの支援を受けて、または、別のタイプのアルゴリズムを用いて、重心発見アルゴリズムを使用して決定することができる。他のタイプの骨修復/置換術については、骨の他の点または領域が、識別され、次に、ユーザの視線または注視点につながれてよい。
ユーザの注視点を中心に空間で仮想骨モデル1008を移動及び回転させる能力だけでは一般的に、仮想骨モデル1008を観察される骨と同じ向きにするには不十分である。従って、初期化手順の一部として、MRシステム212はまた、デプスセンサ、光学センサ、及びモーションセンサ530、532、533から収集されたセンサデータを使用して、可視化デバイス213と可視化デバイス213の視野で観察される骨の点(複数可)との間の距離と、その表面の向きとを決定する(ブロック2008)。例えば、関節窩は、局所的に、平面によって近似され得るので、比較的単純な表面である。従って、関節窩表面の向きは、その表面上の点(例えば、中心点)に対して垂直(すなわち、直角な)ベクトルを決定することによって近似することができる。この法線ベクトルは、本明細書では「観察法線ベクトル」と呼ばれる。しかしながら、上腕骨または膝等の他の骨は、より多くの複雑な表面を有し得ることは理解されたい。これらのより複雑な症例では、他の表面記述子を使用して、向きを決定してよい。
特定の骨に関わらず、距離情報は、デプスカメラ(複数可)532からMRシステム212によって得ることができる。この距離情報を使用して、観察される骨の表面の幾何学的形状を得ることができる。すなわち、デプスカメラ(複数可)532は、デプスカメラ(複数可)532の視野の任意の点に対応する距離データを提供するので、観察される骨上のユーザの注視点までの距離を決定することができる。この情報を用いて、ユーザは次に、空間で3D仮想骨モデル1008を動かすことができ、注視点を用いて対象点または領域で3D仮想骨モデル1008を観察される骨とほぼ整列させることができる(図20Aのブロック2010)。すなわち、ユーザが観察された骨構造2200(図20Aのブロック2006)に注視をシフトすると、(ユーザの視線に接続された)仮想骨モデル1008は、ユーザの注視と共に移動する。次に、ユーザは、ユーザの頭部(及び、従って、視線)を動かして、ハンドジェスチャを使用して、音声コマンドを使用して、及び/または、仮想インタフェースを使用して、3D仮想骨モデル1008を観察された骨構造2200と整列させて、仮想骨モデル1008の位置を調整することができる。例えば、3D仮想骨モデル1008が観察された骨構造2200とほぼ整列すると、ユーザは、MRシステム212に最初のアライメントをキャプチャさせる音声コマンド(例えば、「セット」)を提供してよい。3Dモデルの向き(「ヨー」及び「ピッチ」)は、ユーザの頭部を回転すること、ハンドジェスチャを使用すること、音声コマンドを使用すること、及び/または、仮想の物体及び観察された物体の最初の(または、おおよその)アライメントが達成できるようにユーザの視線を中心に3D仮想骨モデル1008を回転させる(図20Aのブロック2012)仮想インタフェースを使用することによって調整することができる。このように、仮想骨モデル1008は、仮想の法線ベクトルと観察法線ベクトルを整列させることによって、観察される骨と向きを合わせられる。最初のアライメントの追加の調整を、必要に応じて行うことができる。例えば、音声コマンドを提供した後、ユーザは、追加のユーザ入力を提供して、仮想骨モデル1008の観察された骨構造2200に対する向きまたは位置を調整してよい。この最初のアライメントプロセスは、術中に(または、リアルタイムで)行われ、それによって、外科医は、仮想の骨と観察される骨をほぼ整列させることができる。外科医が最初のアライメントが不十分であると判断する等のいくつかの例では、外科医は、点2106が再びユーザの視線にロックされるようにMRシステム212に最初のアライメントを解除させるユーザ入力(例えば、「リセット」等の音声コマンド)を提供してよい。
図20Aのブロック2014で、3D仮想骨モデル1008と観察された骨構造2200との最初のアライメントが(少なくとも大体)達成されたことをユーザが検出(例えば、見る)と、ユーザは、可聴のまたは他の知覚可能な指示を提供して、細かい位置合わせプロセス(すなわち、最適化(例えば、最小化)アルゴリズムの実行)を開始できることをMRシステム212に知らせることができる。例えば、ユーザは、MRシステム212に最小化アルゴリズムを実行させて細かい位置合わせプロセスを行うように音声コマンド(例えば、「マッチ」)を提供してよい。最適化プロセスは、任意の適切な最適化アルゴリズム(例えば、反復最近傍点または遺伝的アルゴリズム等の最小化アルゴリズム)を採用して、仮想骨モデル1008と観察された骨構造2200とのアライメントを完全にすることができる。図20Aのブロック2016で、最適化アルゴリズムの実行を完了すると、位置合わせ手順は完了する。
図21は、肩関節形成術の例示の位置合わせプロセスのステップを示す概念図である。図22は、図21の肩関節形成術の例示の位置合わせプロセスの追加のステップを示す概念図である。図21において、可視化デバイス213のユーザの視線2104は、3D仮想骨モデル1008(関節窩)の表面2108上の事前に識別された対象点(または、注視点)2106と接続される。図21はまた、表面2108上の点2106への仮想法線ベクトル(Nv)2110を示す。図22において、可視化デバイス213のユーザは、観察された骨構造2200の表面2204の対象領域2202に視線2104をシフトする。視線2104は、仮想骨モデル1008の中心点2106に接続されているので、視線2104をシフトすることによって、仮想骨モデル1008の中心点2106が、観察された対象領域2202と整列する。しかしながら、図22に示すように、単に視点をシフトすることによって、中心点/領域2106、2202を整列させるが、(破線で示される)仮想骨モデル1008は、観察された骨構造2200とは適切に同じ向きにならない場合がある。観察法線ベクトル(NO)2206が上記のように決定されると、可視化デバイス213は、適切な向きが達成され(点線で示される)、仮想法線ベクトル(VN)2110が観察法線ベクトル2206と整列するまで、仮想骨モデル1008の向き(ピッチ及びヨー)を調整することができる。ユーザは、仮想骨モデル1008が対応する現実の骨と適切なアライメントになるように関節窩を通る整列された軸を中心に仮想骨モデル1008を回転させてよい。
図23及び図24は、肩関節形成術の例示の位置合わせプロセスを示す概念図である。図21に示す位置合わせプロセスと同様に、図23は、可視化デバイス213のユーザの視点を示す。図23に示すように、対象点2106が、仮想骨モデル1008上に示される。上記のように、ユーザの注視が点2106に接続されるので、ユーザは、視線をシフトすることによって仮想骨モデル1008を動かしてよく、この場合、可視化デバイス213は、注視のシフトを検出して、それに対応するように仮想骨モデルを移動させる。図24に示すように、仮想骨モデル1008を観察された骨構造2200と整列させるために、ユーザは、注視を矢印2400が示す方向にシフトさせてよい。
肩関節形成等のいくつかの骨修復手順については、ユーザの注視のみを使用した仮想の骨と観察される骨とのアライメント及び方向付けは困難な場合がある。これらの問題は、骨(例えば、関節窩)が皮膚のかなり深くに位置するので、外科的切開を行った後でさえ、可視化デバイス213を骨の近くに配置することが難しい場合があること、影が骨を見えなくする場合があること、対象とする骨表面全てが見えるわけではないこと、ユーザが一定の安定した注視を維持することが困難な場合があり、それによって、仮想の骨の位置決めを不安定にし得ることなどを含む、多くの要因が原因で生じる。いくつかの例では、これらの問題に対処するために、位置合わせ手順は、骨の特定の箇所(複数可)(例えば、肩関節形成術に関しては関節窩の中心)に配置された仮想ランドマーク(複数可)の使用を通して容易にすることができる。このような例では、仮想ランドマークが配置された箇所と、その箇所に垂直な表面とを使用して、自動的に仮想の骨及び観察される骨に対する初期化変換(または、位置合わせ変換)を決定することができる。必要に応じて、仮想ランドマークを使用して仮想の骨と観察される骨の間で達成されるアライメントは、音声コマンド、ハンドジェスチャ、仮想インタフェースボタンを使用して、及び/または、骨表面の様々な箇所に追加の仮想マーカを配置することによって、ユーザによってさらに調整することができる。
図25は、仮想マーカ2500を使用した例示の位置合わせ手順を示す。図26は、仮想マーカを使用した図20Aの例示の位置合わせ手順の追加のステップを示す概念図である。図25及び図26の例において、可視化デバイス213のユーザは、観察された骨構造2200の中心領域2202(例えば、中心点)に仮想マーカ2500を設定するように視線2104をシフトする。仮想で配置されたマーカ2500、仮想法線ベクトル2110及び観察法線ベクトル2206の支援で、仮想骨モデル1008と観察された骨構造2200の間の初期化変換を決定することができる。次に、仮想骨モデル1008と観察された骨構造2200の間の最適の位置合わせを取得するために、上記のように最適化アルゴリズム(または、位置合わせアルゴリズム)が実行される。
いくつかの例では、初期化手順は、対象点の代わりに、骨表面の対象領域に基づいて実施することができる。このような例では、可視化デバイス213のデプスカメラ及び/または光学カメラ(複数可)530、532(図5)によって収集された画像データを処理して、観察される骨の位置と向きの識別を容易にする表面記述子を検出し、仮想の骨と観察される骨の間の初期化変換を決定することができる。
上記のように、いくつかの例では、初期化は、ユーザによって支援(例えば、ユーザが観察された骨構造2200の中心領域2202に仮想マーカ2500を設定するように視線2104をシフトすることによって支援)されてよい。いくつかの例では、MRシステム212は、ユーザからの最小の支援で、または、支援なく、(例えば、任意の初期化ステップを含む)位置合わせプロセス全体を行ってよい。例えば、MRシステム212は、デプスカメラ及び/または光学カメラ(複数可)530、532(図5)によって収集された画像データを処理して、対象とする解剖学的構造(例えば、観察された骨構造2200)の場所を自動的に識別してよい。従って、MRシステム212は、解剖学的構造の一部分の仮想モデルを、解剖学的構造の対応する観察された部分へ、ユーザが解剖学的構造のその部分を見ることに応答して(例えば、外科医が、可視化デバイス213を着用して、解剖学的構造のその部分を単に見るだけでよい)位置合わせし得る。MRシステム212は、任意の適切な技術を使用して、自動的に場所を識別し得る。例えば、MRシステム212は、機械学習モデルを使用して(すなわち、ランダムフォレストアルゴリズム等の機械学習を使用して)画像データを処理し、対象とする解剖学的構造の場所を識別し得る。
より一般的に言うと、図20A及び図20Bを参照して記載した位置合わせ方法は、3D仮想モデルに対して第1のローカル基準座標系を決定し、観察された現実の解剖学的構造に対して第2のローカル基準座標系を決定することと見なされる。いくつかの例では、MRシステム212はまた、光学カメラ530及び/またはデプスカメラ532及び/またはモーションセンサ533(または、任意の他の取得センサ)から収集された光学画像データを使用して、ユーザがいる環境(例えば、手術室)に対して、グローバル基準座標系を決定することができる。他の例では、グローバル基準座標系は、他の方法で規定できる。いくつかの例では、デプスカメラ532は、可視化デバイス213に外部で結合され、可視化デバイス213は、Microsoft HOLOLENS(商標)ヘッドセット等の複合現実ヘッドセット、または類似のMR可視化デバイスであってよい。例えば、デプスカメラ532は、可視化デバイス213から取り外し可能であってよい。いくつかの例では、デプスカメラ532は可視化デバイス213の一部であり、可視化デバイス213は、ここでも複合現実ヘッドセットであってよい。例えば、デプスカメラ532は、可視化デバイス213の外側ハウジング内に収容されてよい。
位置合わせプロセスは、仮想の骨と観察される骨の間のアライメントを達成及び維持するために、3D仮想骨モデルのx軸、y軸及びz軸に沿った平行移動と、x軸、y軸及びz軸を中心にした回転とを可能にする変換行列を生成してよい。
いくつかの例では、仮想マーカの1つまたは複数は、例を挙げると、光学マーカまたは電磁マーカ等の1つまたは複数の物理的マーカで置き換えることができる、及び/または補うことができる。図30A~30Eは、現実の観察された骨構造2200のまわりに配置された物理的マーカの例を示す。一般に、1つまたは複数の物理的マーカは、位置合わせされている物体(例えば、現実の観察された骨構造2200またはツール)上またはまわりの様々な位置に置かれてよい。図30A及び図30Bの例に示すように、固定された光学マーカ3010が、肩関節形成術で使用されて、現実の観察された骨構造2200上の肩甲骨の肩峰の場所を規定してよい。図30Aの例では、固定された光学マーカ3010は、光学マーカの1つの面に平面の基準マーカ3010Aを含んでよい。図30Bの例では、固定された光学マーカ3010は、光学マーカの複数の面に平面の基準マーカ3010Aを含んでよい。物理的マーカが複数の面に基準マーカを含む場合、基準マーカは、あらゆる面で同じであってよい、または、異なる面が、異なる基準マーカを含んでよい。図30A及び図30Bに示すように、基準マーカは、マーカ3010の先端3010Bに近い物理的マーカの部分に配置されてよい。いくつかの例では、MRシステム212は、基準マーカの特徴部(例えば、セントロイドまたは中心点)と物理的マーカの先端の間の距離を取得してよい。一例として、距離は、既定であってよく、MRシステム212のメモリに記憶されてよい。別の例として、MRシステム212は、基準マーカの光学的特性に基づいて距離を決定してよい(すなわち、距離は、基準マーカにエンコードされてよい)。
図30Cの例に示すように、物理的マーカ3012A~3012D(集合的に、「物理的マーカ3012」)は、現実の観察された骨構造2200のまわりの様々な位置に配置することができる。いくつかの例では、物理的マーカの様々な位置は、図16の患者に適合したガイド1600の位置(例えば、取付点)に対応してよい。肩峰位置と関節窩の中心の位置(仮想で設定されてよい)が分かると、ユーザが頭部の動き及び回転を用いる必要なく、MRシステム212が自動的に仮想の骨を初期化/位置合わせするのが可能になり得る。
一般に、物理的マーカはどこに置かれてもよい。例えば、物理的マーカは、患者(例えば、非滅菌野)、外科的に露出された解剖学的構造(滅菌野)、器具、外科的視野のどこか、または任意の他の適切な箇所に取り付けることができる。
物理的マーカは、現実の観察される物体(例えば、骨構造2200)に対して特定の箇所を識別することができる任意のタイプのマーカであってよい。物理的マーカの例は、受動的な物理的マーカ及び能動的な物理的マーカを含むが、必ずしもこれらに限らない。受動的な物理的マーカは、MRシステム212による物理的マーカの識別を支援する物理的パラメータを有してよい。例えば、物理的マーカは、MRシステム212による識別を支援するある特定の形状(例えば、現実の観察された骨構造2200に取り付けられてよい球形のマーカ)、及び/または光学的特性(例えば、反射性材料、色(例えば、手術環境でより見やすい緑などの色)、(QRコード(登録商標)等の1次元または2次元のバーを含む)バーコードなど)を有してよい。受動的な物理的マーカは、3次元または2次元であってよい。受動的な物理的マーカは、その存在/位置がMRシステム212によって受動的に検出されるという点で受動的と見なされてよい。受動的な物理的マーカは、例えば、剥離層を除去すると露出される接着剤層を介して骨、ツールまたは他の構造に接着して取り付けることができる平面の基準マーカを有する平らなまたは柔軟な2次元ステッカであってよい。あるいは、受動的な物理的マーカは、例えば、外科用の接着剤、ネジ、くぎ、クランプ及び/または他の固定機構を用いて骨に固定されてよい。
図30Dの例に示すように、平面の基準マーカを含むステッカ3016A~3016Cが、観察される足首3014にまたはまわりに取り付けられているとして示されている。さらに、平面の基準マーカを含むステッカ3018は、ドリル3020に取り付けられていると示されている。
能動的な物理的マーカは、MRシステム212による識別を支援する1つまたは複数の動作を行ってよい。例えば、能動的な物理的マーカは、MRシステム212による識別を支援する信号(例えば、電磁信号)を出力してよい。能動的な物理的マーカの例は、Northern Digital社製のtrakSTAR(商標)システム及び/またはdriveBAY(商標)システム用のセンサまたは送信機を含むが、これらに限らない。
電磁追跡(すなわち、「EM追跡」と呼ばれる電磁物理的マーカを使用する追跡)は、磁場発生器(FG)によって作成され得る既知の形状の磁場内にセンサを配置することによって達成されてよい。センサは、磁束または磁場を測定してよい。追跡デバイスは、FGを制御してよく、センサからの測定値を受信してよい。受信した測定値に基づいて、追跡デバイスは、センサの場所/位置を決定してよい。EM追跡に関しては、Alfred M. Franz等の「Electromagnetic Tracking in Medicine-A Review of Technology,Validation,and Applications,“IEEE TRANSACTIONS ON MEDICAL IMAGING,VOL.33,NO.8、2014年8月により詳細に記載されている。
図30Eは、現実の観察された骨構造2200のまわりに配置された電磁物理的マーカの例を示す。図30Eに示すように、電磁(EM)追跡システム3022(図2のMRシステム204内に含まれてよい)は、電磁(EM)トラッカ3024、磁場発生器3004、及び1つまたは複数のEM物理的マーカ3028A及び3028B(集合的に「EM物理的マーカ3028」)を含む。EM物理的マーカ3006は、上記技術を用いて追跡される物体(例えば、観察される骨構造2200、器具等)の近くに配置及び/または追跡される物体に取り付けられてよい。例えば、EM物理的マーカ3006は、外科用の接着剤、ネジ、くぎ、クランプ及び/または他の固定機構を用いて取り付けられてよい。
磁場発生器3004は、既知の形状を有する磁場を出力/生成するように構成されてよい。磁場発生器3004の例は、永久磁石、または、電磁気力を含むが、必ずしもこれらに限らない。電磁気力の場合は、磁気基準場の構造は、ビオ・サバールの法則によって支配されてよい。放射コイルアセンブリの形状及びコイルを通して送られる電流のタイプが、上記磁場の形状及び幾何学的特性を決定する。
EMトラッカ3024は、磁場発生器3004の動作を制御するように構成されてよい。例えば、EMトラッカ3024は、磁場発生器3004によって生成されるEM場のパラメータを磁場発生器3004のコイルを流れる電流を調整することによって制御してよい。EMトラッカ3024は、EM物理的マーカ3006から信号を受信してよい。例えば、EMトラッカは、EM物理的マーカ3006から磁束及び/または磁場の測定値を受信してよい。EMトラッカ3024は、受信した測定値に基づいてEM物理的マーカ3006の位置/向き/場所を決定してよい。
EMトラッカ3024及び磁場発生器3004は、それぞれ、スタンドアロンコンポーネントであってよい、1つのコンポーネントに統合されてよい、または、他のコンポーネント内に含まれてよい。例えば、EMトラッカ3024は、図2のMRシステム212内に含まれてよい。EMトラッカ3024は、MRシステム204の1つまたは複数の他のコンポーネント(例えば、処理デバイス210)にEM物理的マーカ3006の決定された位置/向き/場所を出力してよい。
EM追跡システム3022を利用して、他のマーカを使用してまたは使用せずに位置合わせを行ってよい。一例として、EM追跡システム3022を利用して、他の物理的マーカまたは仮想マーカを使用せずに、骨の仮想モデルを対応する観察される骨へ位置合わせしてよい。別の例として、EM追跡システム3022を利用して、他の物理的マーカ及び/または仮想マーカと併用して、骨の仮想モデルを対応する観察される骨へ位置合わせしてよい。
図20Bは、物理的マーカ(例えば、受動的物理的マーカと能動的物理的マーカの任意の組み合わせ)を使用して、3D仮想骨モデル1008を患者の現実の観察された骨構造2200に位置合わせする技術2018の例を示す。言い換えると、図20Bは、図2の複合現実システム212等の複合現実システムで実施される、仮想骨モデルを観察される骨に位置合わせするために、例えば、可視化デバイス213によって行われるプロセスフローの例である。3D仮想骨モデル1008は、1つまたは複数の骨の全てまたは一部のモデルであってよい。図20Bのプロセスフローは、図19のステップ1904の位置合わせプロセスの一部として行われてよい。以下に記載するように、図20Bの位置合わせプロセスは、図20Aの位置合わせプロセスに加えて、または、その代わりに使用されてよい。
手術時、施術者は、特定の位置に1つまたは複数の物理的マーカを配置してよい。いくつかの例では、MRシステム212は、施術者が物理的マーカをどこに配置すべきかに関する指図を出力してよい。規定の場所は、観察される骨構造2200に対応する仮想モデル上の特定の位置に対応してよい。例えば、一例では、可視化デバイス213は、(例えば、患者に適合したガイド1600が使用できるかどうかにかかわらず)図16の患者に適合したガイド1600の位置に対応する場所に(例えば、外科用の接着剤、ネジ、くぎ、クランプ及び/または他の固定機構を用いて)施術者が物理的マーカを取り付けるための指図を表示してよい。言い換えると、施術者は、患者に適合したガイド1600が存在しない場合でさえ、患者に適合したガイド1600を取り付ける場所に物理的マーカを取り付けてよい。他の例では、マーカの取付または他の配置のために物理的な骨またはツール(複数可)上の対応する場所を外科医に選択させるように、規定の場所がテキスト、グラフィックまたは可聴の情報によって示されてよい。例えば、MRシステム212は、図30Aの光学マーカ3010の先端3010Bを肩甲骨の肩峰に取り付ける時に外科医をガイドするグラフィック情報を出力してよい。
MRシステム212は、1つまたは複数のセンサ(例えば、図6の可視化デバイス213のセンサ614の1つまたは複数)からのデータを利用して、物理的マーカの場所を識別してよい(2020)。例えば、MRシステム212は、デプスセンサ532及び/または光学センサ530の任意の組み合わせによって生成されたデータを使用して、各物理的マーカの特定の位置(例えば、座標)を識別してよい。1つの具体的な例として、MRシステム212は、光学センサ530によって生成された光学データを利用して、図30Aの光学マーカ3010Aのセントロイドを識別してよい。MRシステム212は次に、デプスセンサ532によって生成された深さデータ及び/または光学センサ530によって生成された光学データを利用して、識別されたセントロイドの位置及び/または向きを決定してよい。MRシステム212は、物理的マーカのセントロイドと取付点の間の距離を決定してよい。例えば、MRシステム212は、図30Aの基準マーカ3010Aのセントロイドと光学マーカ3010の先端3010Bの間の距離を決定してよい。決定された(すなわち、セントロイドと取付点の間の)距離とセントロイドの決定された位置/向きとに基づいて、MRシステム212は、取付点の位置/向きを決定してよい。
MRシステム212は、物理的マーカの識別された位置に基づいて、仮想モデルを観察された解剖学的構造に位置合わせしてよい(2022)。例えば、物理的マーカが、観察される骨構造2200に対応する仮想モデル上の特定の場所(複数可)に対応する場所で観察される骨構造2200上に配置される場合、MRシステム212は、仮想モデルと観察される骨構造212の間の変換行列を生成してよい。この変換行列は、仮想の骨と観察される骨との間のアライメントを達成及び維持するために仮想モデルのx軸、y軸及びz軸に沿った平行移動と、x軸、y軸及びz軸を中心とした回転とを可能にするという点で、上記の変換行列と類似し得る。いくつかの例では、位置合わせ完了後、MRシステム212は、位置合わせの結果を利用して、同時位置決め地図作成(SLAM)を行い、仮想モデルの対応する観察される物体へのアライメントを維持する。
以下にさらに詳細に記載するように、MRシステム212は、位置合わせに基づいて、人工装具の取付のために観察される解剖学的構造を準備するための仮想ガイダンス、または、人工装具を観察される解剖学的構造に取り付けるための仮想ガイダンスを表示してよい(2024)。例えば、MRシステム212は、図34~図71の任意の組み合わせを参照して以下に記載する仮想ガイダンスを提供し得る。
上記のように、仮想マーカ(例えば、仮想マーカ2500)に加えて、または、その代わりに物理的マーカを使用してよい。言い換えると、MRシステム212は、物理的マーカ及び仮想マーカの任意の組み合わせを使用して、骨の仮想モデルの対応する観察される骨への位置合わせを行ってよい。いくつかの例では、物理的マーカを(単独で、または仮想マーカと共に)使用することによって、MRシステム212が、位置合わせを行うために必要な時間量を削減する、及び/またはより正確に位置合わせすることが可能となる。
いくつかの例では、MRシステム212は、仮想マーカまたは物理的マーカのうちの一方を第1の位置合わせマーカとして使用してよく、他方を副次または補助的な位置合わせマーカとして使用してよい。一例として、MRシステム212は、第1の位置合わせマーカを使用して位置合わせの実行を試みることによって位置合わせプロセスを開始してよい。このような例では、MRシステム212が、第1の位置合わせマーカのみを使用して位置合わせを十分に完了することができない(例えば、仮想の解剖学的構造と観察される解剖学的構造の間で、変換行列等のマッピングを生成できない)場合、MRシステム212は、副次位置合わせマーカのみ、または、第1の位置合わせマーカと副次位置合わせマーカの組み合わせを使用して位置合わせの実行を試みてよい。1つの具体的な例では、MRシステム212が仮想マーカ(複数可)のみを使用して十分に位置合わせを完了できない場合、MRシステム212は、物理的マーカ(複数可)のみ、または、仮想位置合わせマーカ(複数可)と物理的位置合わせマーカ(複数可)の組み合わせを使用して、位置合わせの実行を試みてよい。
MRシステム212が、第1の位置合わせマーカのみを使用して十分に位置合わせを完了できない状況では、MRシステム212は、副次位置合わせマーカを使用して位置合わせできるように1つまたは複数の動作を行うように施術者に対して要求を出力してよい。一例として、副次位置合わせマーカが物理的マーカである場合、MRシステム212は、観察される解剖学的構造に対して特定の場所に物理的マーカを配置するように施術者に対して要求を出力してよい。別の例として、副次位置合わせマーカが仮想マーカである場合、MRシステム212は、図20Aを参照して上述した最初のアライメント手順を行うように施術者に対して要求と、対応するグラフィックユーザインタフェース(例えば、3D仮想骨モデル1008)とを出力してよい。
いくつかの例では、施術者は、(例えば、位置合わせ完了後)、物理的マーカを取り除いてよい。例えば、MRシステム212が物理的マーカを使用して位置合わせプロセスを完了した後、MRシステム212は、物理的マーカを取り除いてよいという指示を出力してよい。物理的マーカが取り除かれる例では、MRシステム212は、仮想マーカまたは任意の他の適切な追跡システムを使用して、仮想骨モデルの観察される骨への位置合わせを維持してよい。
いくつかの例では、施術者は、手術の後の時点まで物理的マーカを取り除かない場合がある。例えば、仮想モデルの観察される骨への位置合わせがもはや必要無くなる(例えば、位置合わせを使用する全ての仮想ガイダンスが表示され、対応する手術ステップが完了した後)まで、施術者は、物理的マーカを取り除かない場合がある。
いくつかの例では、MRシステム212は、仮想骨モデルと観察される骨(例えば、関節窩、上腕骨、または他の骨構造)の間の位置合わせを、手術中、終始維持することができ得る。しかしながら、場合によっては、MRシステム212は、仮想骨モデルと観察される骨の間の位置合わせを失う場合がある、または、維持できない場合がある。例えば、MRシステム212は、マーカの1つまたは複数(例えば、仮想、物理的、または両方)を見失う場合がある。見失うのは、体液(例えば、血液)がマーカを塞ぐ、マーカが外れる(例えば、物理的マーカが適所からはずれる)などを含むが、これらに限らない任意の数の要因の結果であり得る。従って、MRシステム212は、位置合わせが失われていないかどうかを定期的に判定してよい(2026)。
いくつかの例では、MRシステム212は、仮想点と対応する物理的点の間の信頼距離が閾値信頼距離(例えば、臨床的値)を超える場合、位置合わせが失われたと決定してよい。MRシステム212は、現在の位置合わせの正確性を表す値として、定期的に信頼距離を決定してよい。例えば、MRシステム212は、仮想点と対応する物理的点の間の距離が3mm未満であると決定してよい。
いくつかの例では、MRシステム212は、信頼距離の表現を出力してよい。一例として、MRシステム212は、可視化デバイス213に信頼距離の数値を表示させてよい。別の例として、MRシステム212は、可視化デバイス213に閾値信頼距離に対する信頼距離のグラフィック表現を表示させてよい(例えば、信頼距離が閾値信頼距離の半分未満の場合、緑の丸を表示、信頼距離が閾値信頼距離の半分と閾値信頼距離の間にある場合、黄色の丸を表示、及び、信頼距離が閾値信頼距離より大きい場合、赤い丸を表示)。
いくつかの例では、MRシステム212は、手術を通して同じ閾値信頼距離を利用してよい。例えば、MRシステム212は、(例えば、図34~図71を参照して以下に記載する)上腕骨及び肩甲骨の全ての作業ステップに対して特定の閾値信頼距離を利用してよい。いくつかの例では、MRシステム212は、手術の様々な部分に対して異なる閾値信頼距離を利用してよい。例えば、MRシステム212は、第1の閾値信頼距離を作業ステップの第1のセットに対して利用してよく、作業ステップの第1のセットの(第1の閾値信頼距離とは異なる)第2の閾値信頼距離を作業ステップの第2のセットに対して利用してよい。
位置合わせが失われていない場合(2026の「No」分岐)、MRシステム212は、仮想ガイダンスの表示を続けてよい(2024)。しかしながら、MRシステム212が位置合わせを失った場合(2026の「Yes」分岐)、MRシステム212は、仮想骨モデルを観察される骨へ再位置合わせするための1つまたは複数の動作を行ってよい。一例として、MRシステム212は、施術者がさらなる動作を行うことなく、自動的に位置合わせプロセスの実行を試みてよい。例えば、物理的マーカが取り除かれていない場合、MRシステム212は、物理的マーカを使用して位置合わせプロセスを行ってよい。あるいは、物理的マーカが取り除かれている場合(または、配置されていない場合)、MRシステム212は、施術者に対して物理的マーカを配置する要求を出力してよい。従って、MRシステム212は、仮想モデルを観察される骨に定期的に位置合わせすると見なされてよい。
いくつかの例では、位置合わせが失われた場合、自動的に再位置合わせを試みるのではなく、MRシステム212は、位置合わせがまだ必要かどうかに基づいて選択的に再位置合わせを行ってよい(2028)。いくつかの例では、MRシステム212は、追加の仮想ガイダンスが表示される場合、位置合わせがまだ必要であると判断してよい。MRシステム212が位置合わせはもう必要ないと判断する場合(2028の「No」分岐)、MRシステム212は、位置合わせ手順を終了してよい。
上記のように、MRシステム212は、仮想マーカと物理的マーカとの任意の組み合わせを利用して、仮想モデルの対応する観察される構造への位置合わせを可能にしてよい。MRシステム212は、マーカのいずれかを使用して最初の位置合わせを行ってよく、必要な場合、MRシステム212は、マーカのいずれかを使用して再位置合わせを行ってよい。最初の位置合わせに使用されたマーカは、任意の再位置合わせに使用されたマーカと同じであってもよく、異なっていてもよい。
いくつかの例では、位置合わせの正確さと質を向上させるために、位置合わせプロセスの初期化段階中、MRシステム212は、ユーザの頭部の姿勢と向きに対する空間的制約を計算及び表示することができる。これらの制約は、リアルタイムで計算することができ、ユーザの位置、及び/または、向き、及び/または、観察される骨までの距離、及び/または、デプスカメラ特性に依存し得る。例えば、MRシステム212は、観察される骨に近付くように、ユーザの視線が観察される骨の対象表面に垂直になるように頭の位置を調整するように、または、位置合わせプロセスを向上させるのに有用であり得る、また、特定の手術用途及び/または特定の対象とする解剖学的構造の属性及び/またはMRシステム212で採用される光学センサ及びデプスセンサの特性に依存し得る任意の他の調整を行うように、ユーザを促してよい。
いくつかの例では、デプスカメラ(複数可)532が、適切な波長を有する光信号の構造化された光アプローチまたは飛行時間を使用することによって距離を検出する。一般に、光信号の波長は、デプスカメラ(複数可)532によって送られる光信号による観察される解剖学的構造の表面への浸透が最小限になるように選択される。しかしながら、距離を検出するための他の既知のまたは今後開発される技術を採用することができることを理解されたい。
以下に記載するように、本明細書に記載の位置合わせ技術は、仮想モデルと観察される物体との任意の対に対して行われてよい。一例として、MRシステムは、位置合わせ技術を利用して、骨の仮想モデルを観察される骨へ位置合わせしてよい。例えば、MRシステムは、位置合わせ技術を利用して関節窩/上腕骨/足首の仮想モデルを対応する観察される関節窩/上腕骨/足首へ位置合わせしてよい。別の例として、MRシステムは、位置合わせ技術を利用してインプラントの仮想モデルを観察されるインプラントへ位置合わせしてよい。MRシステムは、位置合わせ技術を利用して、ツールの仮想モデルを観察されるツールへ位置合わせしてよい。例えば、MRシステムは、位置合わせ技術を利用して、ドリルの仮想モデルを対応する観察されるドリルへ位置合わせしてよい。
いくつかの例では、MRシステムは、(例えば、特定の手術内で)仮想モデルと観察される物体との特定の対に対して一度、位置合わせ技術を行ってよい。例えば、MRシステムは、関節窩の仮想モデルを観察される関節窩に位置合わせしてよく、位置合わせを利用して、手術の複数のステップの仮想ガイダンスを提供してよい。いくつかの例では、MRシステムは、(例えば、特定の手術内で)仮想モデルと観察される物体との特定の対に対して複数回、位置合わせ技術を行ってよい。例えば、MRシステムは、最初に関節窩の仮想モデルを観察される関節窩に位置合わせしてよく、位置合わせを利用して、手術の1つまたは複数のステップの仮想ガイダンスを提供してよい。次に、例えば、物質が関節窩から(例えば、リーミングによって)取り除かれた後、MRシステムは、(取り除かれた物質を考慮に入れる)関節窩の別の仮想モデルを観察される関節窩に位置合わせしてよく、後続の位置合わせを使用して、手術の1つまたは複数の他のステップの仮想ガイダンスを提供してよい。
位置合わせが完了すると、MRシステム212の拡張手術モードを使用して手術計画を実行することができる。例えば、図27は、本開示の例による、複合現実システムの拡張手術モード時にユーザが認識できる画像を示す。図27の例に示すように、外科医は、観察される骨構造2200上に仮想で計画された進入点2700とドリル軸2702を可視化することができ、これらの仮想画像を使用して、手術用ツールの位置及びアライメントを支援することができる。ドリル軸2702は、リーミング軸と呼ばれてもよく、リーミングプロセスをガイドするガイドピンを配置するために関節窩にドリルで穴を開けるための仮想ガイドを提供する。場合によっては、ドリルで穴を開けることと、ガイドピンを配置することは、ドリルで穴を開けてガイドピンを配置するワンステッププロセスを含む(例えば、ガイドピンは、「セルフタッピング」であってよい)。
図28は、外科医が可視化デバイス213を用いてインプラントコンポーネントを見ることができる仮想画像の例を示す。同様に、図29は、外科医がインプラントコンポーネントを見ることができる仮想画像の例を示す。図28及び図29の例では、外科医は、観察される骨構造2200に重ね合わせられた移植片1402を含むインプラントコンポーネントの仮想画像(例えば、仮想骨モデル1008)も見ることができる。また、外科医は、骨棘と、骨のどの部分が骨棘を表すかを見ることができる。
位置合わせプロセスは、本開示の他の箇所に記載の仮想計画プロセス及び/または術中ガイダンスと併用して使用されてよい。従って、一例では、特定の患者の対象とする解剖学的構造(例えば、特定の患者の肩関節)を修復するための仮想手術計画が、生成される、または、他の方法で取得される。仮想手術計画が取得される例では、他のコンピューティングシステムが、仮想手術計画及びMRシステム(例えば、MRシステム212)を生成してよい、または、他のコンピューティングシステムは、通信媒体または非一時的記憶媒体等のコンピュータ可読媒体から仮想手術計画の少なくとも一部を取得する。この例では、仮想手術計画は、術前画像データに基づいて生成された対象とする解剖学的構造の3D仮想モデルと、対象とする解剖学的構造を修復するために特定の患者に合わせて選択された人工コンポーネントとを含んでよい。さらに、この例では、ユーザが、MRシステム(例えば、MRシステム212)を使用して仮想手術計画を実施してよい。この例では、MRシステムを使用する一部として、ユーザは、特定の患者の仮想手術計画を要求してよい。
さらに、ユーザは、現実環境内に投影された手術計画の仮想画像を見てよい。例えば、MRシステム212は、本開示の様々な例において記載されるように、3D仮想物体を、その物体が、例えば、患者の現実の解剖学的構造と共に現実環境内に存在するように見えるように提示してよい。言い換えると、MRシステム212は、ユーザが見るために、現実環境内に投影された仮想手術計画の仮想画像を出力してよく、ここで、仮想手術計画の仮想画像は、対象とする解剖学的構造の3D仮想モデルを含む。この例では、手術計画の仮想画像は、対象とする解剖学的構造の3D仮想モデル、対象とする解剖学的構造を修復するために選択された人工コンポーネントの3Dモデル、及び、対象とする解剖学的構造を修復するための手術ワークフローの仮想画像の1つまたは複数を含んでよい。手術ワークフローの仮想画像は、対象とする解剖学的構造を修復する手術を行うことの一部として、1つまたは複数のステップを示すテキスト、グラフィックまたはアニメーションを含んでよい。さらに、この例では、ユーザは、3D仮想モデルを特定の患者の現実の対象とする解剖学的構造に位置合わせしてよい。ユーザは次に、仮想で生成された手術計画を使用して、位置合わせに基づいて現実の対象とする解剖学的構造を修復してよい。言い換えると、拡張手術モードにおいて、ユーザは、可視化デバイスを使用して、対象とする解剖学的構造の3D仮想モデルを現実の対象とする解剖学的構造と整列させることができる。
このような例では、MRシステムは、位置合わせプロセスを実施することによって、3D仮想モデルを現実の対象とする解剖学的構造と整列(例えば、最適に整列)させる。この例では、ユーザは、仮想マーカや物理的マーカを使用することなく、3D仮想モデルを現実の対象とする解剖学的構造に位置合わせしてよい。言い換えると、3D仮想モデルは、(例えば、)仮想マーカまたは物理的マーカを使用することなく、現実の対象とする解剖学的構造と整列(例えば、最適に整列)されてよい。MRシステムは、現実の対象とする解剖学的構造に対する仮想手術計画の実施中、位置合わせを使用して現実の対象とする解剖学的構造の動きを追跡してよい。いくつかの例では、MRシステムは、追跡マーカを使用することなく、現実の対象とする解剖学的構造の動きを追跡してよい。
いくつかの例では、3D仮想モデルを現実の対象とする解剖学的構造に位置合わせすることの一部として、3D仮想モデルは、(例えば、ユーザによって)現実の対象とする解剖学的構造と整列させることができ、アライメントに基づいて、3D仮想モデルと現実の対象とする解剖学的構造との間の変換行列を生成することができる。変換行列は、仮想生成された手術計画を解剖学的構造に置き換えるための座標系を提供する。例えば、位置合わせプロセスは、患者の手術中に、仮想手術計画のステップに関連する解剖学的特徴の3D仮想モデルを、対応する現実の対象とする解剖学的特徴上に投影してユーザが見るのを可能にし得る。現実の対象とする解剖学的構造上に投影される仮想手術計画のステップは、現実の対象とする解剖学的特徴を修復する人工インプラントを配置するための進入点の識別を含む。いくつかの例では、3D仮想モデルと現実の対象とする解剖学的構造とのアライメントによって、現実の対象とする解剖学的構造上に投影された仮想手術計画のステップ(例えば、現実の対象とする解剖学的構造を修復する人工インプラントを配置するための進入点の識別)をユーザが見るのを可能にし得る変換行列を生成してよい。
いくつかの例では、位置合わせプロセス(例えば、位置合わせプロセスを使用して生成される変換行列)は、マーカの追跡を使用せずに、現実の対象とする解剖学的構造に対してユーザが仮想手術計画を使用するのを可能にし得る。いくつかの例では、3D仮想モデルを現実の対象とする解剖学的構造と整列させることは、3D仮想モデルの表面上の対象点を、現実の対象とする解剖学的構造の表面上の対応する対象点の場所に配置することと、対象点に垂直な仮想表面が対応する対象点に垂直な現実表面と整列するように3D仮想モデルの向きを調整することとを含む。いくつかのこのような例では、対象点は、関節窩の中心点である。
図19を引き続き参照すると、位置合わせプロセスを行った後、外科医は、リーミング軸ドリルプロセスを行ってよい(1906)。リーミング軸ドリルプロセス中、外科医は、リーミングガイドピンを受けるために、リーミング軸ガイドピン穴を患者の関節窩にドリルで開けてよい。いくつかの例では、肩の手術のその後の段階で、外科医は、リーミング軸ピンをリーミング軸ガイドピン穴に挿入してよい。いくつかの例では、リーミング軸ピン自体が、リーミング軸ガイドピン穴をドリルで開けるために使用されるドリルビットであってよい(例えば、リーミング軸ピンは、セルフタッピングであってよい)。従って、このような例では、リーミング軸ピンを挿入する別個のステップを行うことは不要な場合がある。いくつかの例では、MRシステム(例えば、MRシステム212、MRシステム1800A等)は、外科医がリーミング軸と整列するようにドリルで穴を開けるのを支援するために仮想リーミング軸を提示してよく、それによって、正確な場所に正確な向きでリーミングガイドピンを配置し得る。
外科医は、様々な方法の1つでリーミング軸ドリルプロセスを行ってよい。例えば、外科医は、リーミング軸ピン穴をドリルで開けるガイドベースのプロセスを行ってよい。この場合、物理的ガイドが、リーミング軸ピン穴をドリルで開けることをガイドするために関節窩に配置される。他の例では、外科医は、例えば、外科医が適切なアライメントでリーミング軸ピン穴をドリルで開けるのをガイドする仮想リーミング軸を提示して、ガイドを使わないプロセスを行ってよい。MRシステム(例えば、MRシステム212、MRシステム1800A等)は、外科医がこれらのプロセスのいずれかを行って、リーミング軸ピン穴をドリルで開けるのを支援してよい。
さらに、図19の手術プロセスでは、外科医は、リーミング軸ピン挿入プロセスを行ってよい(1908)。リーミング軸ピン挿入プロセス中、外科医は、患者の肩甲骨にドリルで開けられたリーミング軸ピン穴内にリーミング軸ピンを挿入する。いくつかの例では、MRシステム(例えば、MRシステム212、MRシステム1800A等)は、外科医がリーミング軸ピン挿入プロセスを行うのを支援するために仮想ガイダンス情報を提示してよい。
リーミング軸挿入プロセスを行った後、外科医は、関節窩リーミングプロセスを行ってよい(1910)。関節窩リーミングプロセス中、外科医は、患者の関節窩をリーミングする。患者の関節窩をリーミングすると、関節窩インプラントの取付に適した表面が得られる。いくつかの例では、患者の関節窩をリーミングするために、外科医は、外科用ドリルにリーミングビットを取り付けてよい。リーミングビットは、リーミングビットの回転軸に沿った軸空洞を画定する。軸空洞は、リーミング軸ピンの外径に対応する内径を有する。リーミングビットを外科用ドリルに取り付けた後、外科医は、リーミング軸ピンがリーミングビットの軸空洞にあるようにリーミングビットを配置してよい。従って、関節窩リーミングプロセス中、リーミングビットは、リーミング軸ピンを中心に回転してよい。このようにして、リーミング軸ピンは、関節窩リーミングプロセス中、リーミングビットが逸れるのを防止し得る。いくつかの例では、複数のツールを使用して患者の関節窩をリーミングしてよい。MRシステム(例えば、MRシステム212、MRシステム1800A等)は、外科医または他のユーザが関節窩リーミングプロセスを行うのを支援するために仮想ガイダンスを提示してよい。例えば、MRシステムは、外科医等のユーザが、関節窩リーミングプロセスで使用するリーミングビットを選択するのを支援してよい。いくつかの例では、MRシステムは、外科医がユーザの関節窩をリーミングする深さを外科医が制御するのを支援するために仮想ガイダンスを提示する。いくつかの例では、関節窩リーミングプロセスは、患者の関節窩の異なる部分をリーミングするために、旧リーミングステップと新リーミングステップとを含む。
さらに、図19の手術プロセスでは、外科医は、関節窩インプラント取付プロセスを行ってよい(1912)。関節窩インプラント取付プロセス中、外科医は、関節窩インプラントを患者の関節窩に取り付けてよい。いくつかの例では、外科医が解剖学的肩関節形成を行っている時、関節窩インプラントは、ユーザの天然の関節窩の代わりとして働く凹面を有する。他の例では、外科医が逆肩関節形成を行っている時、関節窩インプラントは、ユーザの天然の上腕骨頭の代わりとして働く凸面を有する。この逆肩関節形成において、外科医は、関節窩インプラントの凸面上をスライドする凹面を有する上腕骨インプラントを取り付けてよい。図19の肩の手術の他のステップにおいてのように、MRシステム(例えば、MRシステム212、MRシステム1800A等)は、外科医が関節窩取付プロセスを行うのを支援するために仮想ガイダンスを提示してよい。
いくつかの例では、関節窩取付プロセスは、関節窩インプラントを患者の肩甲骨に取り付けるプロセスを含む(1914)。いくつかの例では、関節窩インプラントを患者の肩甲骨に取り付けるプロセスは、1つまたは複数のアンカー穴または1つまたは複数のネジ穴を患者の肩甲骨にドリルで開けること、インプラントの1つまたは複数のペグまたはキールなどのアンカーをアンカー穴(複数可)に配置すること、及び/または、場合によっては、セメントまたは他の接着剤を使用して関節窩インプラント及びネジ穴を通してネジを挿入することを含む。MRシステム(例えば、MRシステム212、MRシステム1800A等)は、関節窩インプラントを関節窩骨に固定するプロセスで外科医を支援するために仮想ガイダンスを提示してよく、それは例えば、ドリルまたは他の方法で関節窩に形成されるアンカーまたはネジ穴と、アンカーまたはネジの穴への配置とを示す仮想ガイダンスを含む。
さらに、図19の例では、外科医は、上腕骨準備プロセスを行ってよい(1916)。上腕骨準備プロセス中、外科医は、上腕骨インプラントの取付のために上腕骨の準備をする。外科医が解剖学的肩関節形成を行っている例では、上腕骨インプラントは、患者の天然の上腕骨頭の代わりとして働く凸面を有してよい。上腕骨インプラントの凸面は、関節窩インプラントの凹面内をスライドする。外科医が逆肩関節形成を行っている例では、上腕骨インプラントは、凹面を有してよく、関節窩インプラントは、対応する凸面を有する。本開示の他の箇所に記載するように、MRシステム(例えば、MRシステム212、MRシステム1800A等)は、外科医が上腕骨準備プロセスを行うのを支援するために仮想ガイダンス情報を提示してよい。
さらに、図19の例示の手術プロセスでは、外科医は、上腕骨インプラント取付プロセスを行ってよい(1918)。上腕骨インプラント取付プロセス中、外科医は、患者の上腕骨上に上腕骨インプラントを取り付ける。本開示の他の箇所に記載するように、MRシステム(例えば、MRシステム212、MRシステム1800A等)は、外科医が上腕骨準備プロセスを行うのを支援するために仮想ガイダンスを提示してよい。
上腕骨インプラント取付プロセスを行った後、外科医は、取り付けられた関節窩インプラントと取り付けられた上腕骨インプラントを整列させるインプラントアライメントプロセスを行ってよい(1920)。例えば、外科医が解剖学的肩関節形成を行っている例では、外科医は、上腕骨インプラントの凸面を関節窩インプラントの凹面内に入れ子にしてよい。外科医が逆肩関節形成を行っている例では、外科医は、関節窩インプラントの凸面を上腕骨インプラントの凹面内に入れ子にしてよい。その後、外科医は、創縫合プロセスを行ってよい(1922)。創縫合プロセス中、外科医は、患者の肩の創を閉じるために、切開プロセス中に切断した組織を再度つないでよい。
本開示の他の箇所に記載するように、MRシステム212のユーザインタフェースは、ワークフローバー1000を含んでよい。ワークフローバー1000は、ワークフローページに対応するアイコンを含む。いくつかの例では、ユーザ(例えば、外科医)が選択できる各ワークフローページは、拡張手術ウィジェット1300(図13に示すもの等)を含むことができる。拡張手術ウィジェット1300は、選択されると、MRシステム212の動作モードを起動し、可視化デバイス213を着用または他の方法で使用しているユーザは、患者の骨に投影され、患者の骨に適合された手術計画の詳細(例えば、詳細の仮想画像)を見ることができ、手術を支援する計画を術中に使用することができる。一般に、拡張手術モードは、外科医が、患者の対象とする解剖学的構造(例えば、関節窩)の仮想3Dモデルを観察される現実の解剖学的構造に位置合わせすることを可能にし、その結果、外科医は、仮想手術計画を使用して、現実の手術の実施を支援することができる。これについて、以下により詳細に記載する。
拡張手術ウィジェット1300の例を図13に示す。ウィジェット1300を選択すると、MRシステム212の動作の拡張手術モードが開始される。拡張手術モードが開始されると、患者の関連する骨構造の3D仮想骨モデル1008が、観察される骨構造(すなわち、患者の現実の骨)に位置合わせされて、仮想で計画された手順の詳細が可視化されて、観察される骨の上に重ね合わされる。例えば、肩関節形成術については、これらの詳細は、例を挙げると、進入点、ドリル軸、骨棘、及び、切断表面/平面を含み得る。図13に示すように、拡張手術ウィジェット1300は、ユーザが、例えば、音声コマンドキーワードを用いて、肩甲骨を表示するかどうか(肩甲骨オン/オフ)、表示する場合、肩甲骨を不透明で表示するか透明で表示するか(肩甲骨不透明/透明)を選択するのを可能にしてよい。さらに、ユーザは、例えば、音声コマンドキーワードを用いて、関節窩リーミング軸を表示するかどうか(リーミング軸オン/オフ)、全てを表示しないかどうか(全てオフ)、表示された仮想物体を左に回転させるか右に回転させるか(左に/右に回転)、回転をストップするかどうか(ストップと言って止める)を選択してよい。
上記のように、拡張手術ウィジェット1300は、肩甲骨を不透明に表示するか透明に表示するか(肩甲骨不透明/透明)をユーザが選択するのを可能にし得る。いくつかの例では、ユーザは、音声コマンド、ハンドジェスチャ、または他のタイプのコマンドを使用して、肩甲骨を不透明に表示するか透明に表示するかを選択してよい。ユーザが肩甲骨は不透明か透明かを制御する要素を選択する時、可視化デバイス213は、肩甲骨のモデルの不透明度を増減してよい。いくつかの例では、可視化デバイス213は、可視化デバイス213が不透明度の変更を止める、音声コマンド等のユーザ入力の指示を受信するまで、モデルの不透明度の変更を続けてよい。肩甲骨のモデル、特に、肩甲骨の関節窩部分の不透明度の変更は、異なる照明条件で、ユーザが肩甲骨のモデルを見るのを支援し得る。
肩関節形成アプリケーションでは、位置合わせプロセスは、手術計画システム102によって、例えば、患者の解剖学的構造の術前画像から生成された患者の肩甲骨及び関節窩の3D仮想骨モデル1008を可視化デバイス213がユーザに提示することによって開始する。ユーザは次に、ユーザが手術環境で見ている患者の現実の肩甲骨及び関節窩に3D仮想骨モデル1008の向きを合わせて整列させるように、3D仮想骨モデル1008を操作することができる。従って、いくつかの例では、MRシステムは、初期化及び/または位置合わせを支援するユーザ入力を受信してよい。しかしながら、上記のように、いくつかの例では、MRシステムは、(例えば、3D骨モデルを配置するユーザ入力を受信することなく)初期化及び/または位置合わせプロセスを自動的に行ってよい。膝、股関節、足、足首または肘等に関する、他のタイプの関節形成術については、異なる関連する骨構造が、仮想3D画像として表示されてよく、患者の実際の現実の解剖学的構造と同じような向きに整列されてよい。
関与する関節または解剖学的構造の特定のタイプに関わらず、拡張手術モードを選択すると、3D仮想骨モデル1008が観察される骨構造に位置合わせされる手順が開始される。一般に、位置合わせ手順は、古典的な最適化問題(例えば、最小化または最大化)と見なすことができる。肩関節形成術については、最適化(例えば、最小化)分析への既知の入力は、(デプスカメラ(複数可)532からの深さデータを含む、可視化デバイス213からのセンサデータから導出された)観察される患者の骨の3D形状と、(BLUEPRINT(商標)システムを使用するなどによって)仮想手術計画過程中に得られた3Dの仮想の骨の形状とである。他の入力は、進入点、切断面、リーミング軸及び/またはドリル軸の位置及び向きと、骨構造を成形するリーミングまたはドリル深さ、人工コンポーネントのタイプ、サイズ及び形状、人工コンポーネントが配置される位置及び向き、または、骨折の場合は、骨構造が再建される方法等、(BLUEPRINT(商標)システム等を使用等によって、これも仮想手術計画段階中に得られた)手術計画の詳細を含む。
MRシステム212のUI522(図5)のウェルカム画面から特定の患者を選択すると、患者に関連する手術計画パラメータは、例えば、可視化デバイス213の1つまたは複数のプロセッサによって患者の3D仮想骨モデル1008に接続される。拡張手術モードにおいて、可視化デバイス213による(接続された計画前パラメータを有する)3D仮想骨モデル1008の観察される骨との位置合わせによって、外科医は、患者に関する手術計画パラメータの仮想表現を可視化できる。
3D仮想骨モデル1008の現実の骨との位置合わせを達成するために実施される最適化(例えば、最小化)分析は一般に、初期化段階と最適化(例えば、最小化)段階という2段階で行われる。初期化段階中、ユーザは、視線方向、ハンドジェスチャ及び/または音声コマンドを使用して、仮想の骨と観察された現実の骨とのアライメントを配置及び方向付け、または、他の方法で調整すること等によって、3D仮想骨モデル1008を患者の実際の骨とほぼ整列させる。初期化段階について以下にさらに詳細に記載する。以下にさらに詳細に記載する最適化(例えば、最小化)段階中、光学カメラ(複数可)530及び/またはデプスカメラ(複数可)532及び/または任意の他の取得センサ(例えば、モーションセンサ533)からの情報を使用する最適化(例えば、最小化)アルゴリズムを実行して、3Dモデルの観察される対象とする解剖学的構造とのアライメントをさらに改善する。いくつかの例では、最適化(例えば、最小化)アルゴリズムは、例を挙げると、反復最近傍点アルゴリズムまたは遺伝的アルゴリズム等、任意の既知のまたは今後開発される最小化アルゴリズムを含む、最小化アルゴリズムであってよい。
このように、一例では、複合現実手術計画方法は、特定の患者の対象とする解剖学的構造を修復する仮想手術計画を生成することを含む。対象とする解剖学的構造の3D仮想モデルを含む仮想手術計画は、術前画像データと、対象とする解剖学的構造を修復するために特定の患者のために選択された人工コンポーネントとに基づいて生成される。さらに、この例では、MR可視化システムを使用して、仮想手術計画を実施してよい。この例では、MRシステムを使用することは、特定の患者のための仮想手術計画を要求することを含み得る。MRシステムを使用することはまた、現実環境内に投影された手術計画の仮想画像を見ることを含む。例えば、可視化デバイス213は、例えば、仮想画像(複数可)が現実環境の一部を形成して見えるように、現実環境内に投影された手術計画の詳細の1つまたは複数の3D仮想画像を提示するように構成されてよい。手術計画の仮想画像は、対象とする解剖学的構造の3D仮想モデル、人工コンポーネントの3Dモデル、及び対象とする解剖学的構造を修復する手術ワークフローの仮想画像を含み得る。MRシステムを使用することはまた、3D仮想モデルを特定の患者の現実の対象とする解剖学的構造に位置合わせすることを含んでよい。さらに、この例では、MRシステムを使用することは、仮想で生成された手術計画を実施して、位置合わせに基づいて現実の対象とする解剖学的構造を修復することを含んでよい。
さらに、いくつかの例では、方法は、仮想マーカも物理的マーカも使用することなく、3D仮想モデルを現実の対象とする解剖学的構造に位置合わせすることを含む。方法はまた、現実の対象とする解剖学的構造に対して仮想手術計画を実施中、位置合わせを使用して、現実の対象とする解剖学的構造の動きを追跡することを含み得る。現実の対象とする解剖学的構造の動きは、追跡マーカを使用することなしに追跡されてよい。いくつかの例では、3D仮想モデルを現実の対象とする解剖学的構造に位置合わせすることは、3D仮想モデルを現実の対象とする解剖学的構造と整列させることと、3D仮想モデルと現実の対象とする解剖学的構造の間の変換行列をアライメントに基づいて生成することとを含み得る。変換行列は、仮想で生成された手術計画を現実の対象とする解剖学的構造に置き換えるための座標系を提供する。いくつかの例では、整列させることは、現実の対象とする解剖学的構造の表面上の対応する対象領域内に3D仮想モデルの表面上の対象点を仮想で配置することと、対象点に関連付けられた仮想表面形状が対応する対象領域に関連付けられた現実表面形状と整列するように3D仮想モデルの向きを調整することとを含んでよい。いくつかの例では、整列させることは、ユーザの視線を中心に3D仮想モデルを回転させることをさらに含んでよい。対象領域は、対象とする解剖学的構造の解剖学的ランドマークであってよい。対象とする解剖学的構造は、肩関節であってよい。いくつかの例では、解剖学的ランドマークは、関節窩の中心領域である。
いくつかの例では、位置合わせプロセス完了後、拡張手術モード中、3D仮想骨モデル1008と観察される骨構造2200の間の位置合わせを連続的及び自動的に検証する追跡プロセスを開始することができる。手術中、3D解剖学的モデルと対応する観察される患者の解剖学的構造の間の位置合わせを妨害し得る、または、モデルと観察される解剖学的構造の間の位置合わせを維持するMRシステム212の能力を妨げ得る多くの出来事(例えば、患者の動き、器具の動き、追跡の喪失等)が生じ得る。よって、追跡機能を実施することによって、MRシステム212は、位置合わせを連続的または定期的に検証することができ、必要に応じて位置合わせパラメータを調整することができる。MRシステム212が不適切な位置合わせ(閾値量を超える患者の動き等)を検出する場合、ユーザは、位置合わせプロセスの再開を求められてよい。
いくつかの例では、追跡は、解剖学的構造の特定の箇所に固定された、図30に示すマーカ3010等、1つまたは複数の光学マーカを使用して実施することができる。MRシステム212は、3D空間で、関連する解剖学的構造の位置及び向きを追跡するために、光学マーカ(複数可)をモニタリングする。マーカの動きが検出される場合、MRシステム212は、動きの量を検出することができ、次に、それに従って、位置合わせプロセスを繰り返すことなく、3Dモデルと観察される解剖学的構造の間のアライメントを維持するように、位置合わせパラメータを変換することができる。
他の例では、追跡は、マーカ無しである。例えば、MRシステム212は、光学マーカを用いるのではなく、観察される対象とする解剖学的構造の形状に基づいて、マーカ無し追跡を実施する。いくつかの例では、マーカ無し追跡は、アルゴリズムを追跡するための明確に規定されたアンカーポイントを提供する骨の解剖学的ランドマークの場所に依存してよい。明確に規定されたランドマークが利用できない状況またはアプリケーションでは、目に見える骨形状または他の解剖学的構造の形状を使用する追跡アルゴリズムを実施することができる。このような状況では、光学カメラ(複数可)530及び/またはデプスカメラ(複数可)532及び/またはモーションセンサ533(例えば、IMUセンサ)からの画像データを使用して、目に見える解剖学的構造の形状及び動きに関する情報を得ることができる。マーカ無し追跡に使用できる追跡アルゴリズムの例は、David J.Tanらの「6D Object Pose Estimation with Depth Images:A Seamless Approach for Robotic Interaction and Augmented Reality」arXiv:1709.01459v1(cs,CV)(2017年9月5日)に記載されているが、任意の適切な追跡アルゴリズムを使用することができる。いくつかの例では、MRシステム212のマーカ無し追跡モードは、追跡アルゴリズムが、追跡が開始される前に、目に見える解剖学的構造の形状を学習する学習段階を含むことができる。学習段階によって、追跡の性能を強化することができ、限られた処理能力でリアルタイムにて追跡を行うことができる。
図31は、本開示の例による、MRシステム212の拡張手術モードで追跡を行うプロセスフロー3100の例を示す。図31のプロセスは、MRシステム212の可視化デバイス213によって行われてよい。ブロック3102で、追跡アルゴリズムが仮想骨モデルに基づいて対象とする解剖学的構造の形状を学習する学習プロセスが行われる。いくつかの例では、学習は、オフラインで(すなわち、手術前に)行われる。ブロック3104で、拡張手術モード中に追跡が開始される。ブロック3106で、対象とする解剖学的構造の動きが、連続的(または、定期的に)モニタリングされる。ブロック3108で、検出された動きが閾値量を超える場合、ユーザは、図20Aまたは図20Bの位置合わせプロセスを再開始するように促されてよい(ブロック3112)。上記のように、いくつかの例では、MRシステム212は、検出された動きが閾値量を超える場合、位置合わせプロセスを自動的に再開始及び/または行ってよい。そうでない場合、動きの量を使用して、必要に応じて、位置合わせパラメータを変換してよい(ブロック3110)。
いくつかの例では、マーカ追跡及びマーカ無し追跡の両方を実施することができる。例えば、光学マーカは、マーカ無し追跡アルゴリズムのバックアップとして、または、追跡アルゴリズムの検証として使用することができる。さらに、マーカ追跡及び/またはマーカ無し追跡を実施する選択は、ユーザの裁量に委ねられてよい、または、特定の手術と目に見える特定の解剖学的特徴に依存してよい。
いくつかの例では、手術計画に従って外科医をガイドするために、手術器具またはツール(マーカ(例えば、可視、赤外線等)またはマーカ無し(例えば、ツール形状))を上記の同じ追跡技術のいずれかを使用して追跡して、器具の姿勢及び向きが正しいことを確実にすることができる。外科医による手術器具の使用をガイドするために、MRシステム212は、可視インジケータを表示できる、または、器具を一定の方向に動かすように外科医を促す他の近く可能な指示(例えば、振動、可聴ビープ等)を提供できる。例えば、MRシステム212は、同心のとき、手術計画に従ってツールが整列されていることを示す外科医に見える丸を生成することができる。
手術中、時には、外科医が、術前手術計画を修正する必要があると判断する場合がある。MRシステム212は、手術計画の術中の修正を可能にし、その手術計画を拡張手術モードで実行できる。例えば、いくつかの例では、ユーザは、ユーザインタフェースを操作することができ、それによって、ユーザは、少なくとも対象とする3Dの仮想の骨の解剖学的構造を含む仮想手術計画を術中に見ることができる。このような例では、ユーザは、ユーザが術中に仮想手術計画を修正できるように、ユーザインタフェースを操作することができる。例として、図10に示すUI522のワークフローバー1000で計画ページを選択すると、患者の解剖学的構造の3D仮想骨モデル1008と人工インプラントコンポーネント1010とを外科医が見て操作するのを可能にする。UI522を使用して、外科医は、インプラントコンポーネント1010を回転及び平行移動させることができ、必要に応じて、そのタイプ及びサイズを変更することができる。変更が行われた場合、仮想手術計画は、新しいパラメータで自動的に更新され、その後、拡張手術モード時に、3D仮想骨モデル1008に接続することができる。前のバージョンの仮想手術計画で事前に位置合わせが完了している場合、計画パラメータを更新することができる。仮想手術計画に対する修正によって、外科医が位置合わせプロセスを繰り返すことが必要になる場合、MRシステム212は、外科医に位置合わせプロセスの繰り返しを促すことができる。
本開示の他の箇所に記載するように、整形外科手術は、患者の解剖学的構造に対して様々な作業を行うことを伴ってよい。行われ得る作業のいくつかの例は、切断、ドリル、リーミング、ネジ留め、接着、及び打ち込みを含むが、必ずしもこれらに限らない。一般に、施術者、(例えば、外科医、医師の助手、看護師等)が、できる限り正確に作業を行うことが望ましい。例えば、特定の患者への人工装具の埋め込みの手術計画が患者の解剖学的構造の一部を特定の直径で特定の深さまでリーミングすべきであると指定している場合、(例えば、人工装具が計画通りに適合して機能し、それによって患者にとって良好な健康結果を促進する可能性を向上させるために)外科医が、その特定の直径及びその特定の深さに可能な限り近く、解剖学的構造のその部分をリーミングすることが望ましい。
いくつかの例では、外科医は、「フリーハンド」で(すなわち、ツールに対する機械的または視覚的ガイド/支援無しで、ツールを適用または他の方法で使用して)1つまたは複数の作業を行う場合がある。例えば、図32A~図32Cに示すように、肩関節形成術の途中で、外科医は、上腕骨3200の解剖頸3202を目で見て判断して(例えば、「目側で」)マークすることによって、上腕骨3200の上腕骨頭3204切除の手術ステップを行う場合がある。外科医は次に、外科医のフリーハンドで、すなわち、機械的または視覚的ガイダンス無しで、切断ツール3206(例えば、振動鋸の刃)をマークした解剖頸3202に沿って導くことによって上腕骨頭3204の切除を行ってよい。しかしながら、これらのタイプの作業を伴う手術ステップを全てフリーハンドで行うことは、望まない誤りを招く場合があり、整形外科手術の結果を台無しにする可能性がある。
いくつかの例では、整形外科手術の途中で、外科医は、手術ステップとも呼ばれる1つまたは複数の作業を機械的ガイドの支援を受けて行う場合がある。例えば、図33に示すように、外科医は、(例えば、図19のステップ1902の上腕骨切断プロセスを行う一部として)上腕骨頭3204の切除を行う前に機械的ガイド3300を上腕骨3200に取り付けてよい。外科医は、機械的ガイド3300の上面3302が上腕骨3200の解剖頸3202と同一平面になるように機械的ガイド3300の1つまたは複数のコンポーネントを調整してよい(説明のために、解剖頸3202を破線で示す)。機械的ガイド3300を上腕骨頭3204に取り付け、機械的ガイドを調整した後、外科医は、切断ツール(例えば、振動鋸の刃)を上面3302に沿って導くことによって上腕骨頭3204の切除を行ってよい。しかしながら、機械的ガイドを利用することは望ましくない場合がある。一例として、機械的ガイドの取付及び/または調整によって、手術に追加の時間がかかる。別の例として、機械的ガイドは、追加のツールであり、結果として、(例えば、手術中及び期末前在庫中)機械的ガイドの追加コスト及び/または機械的ガイドを滅菌及び追跡するための追加の時間がかかり得る。
本開示の1つまたは複数の技術によると、MR可視化システム212等の可視化システムは、患者の解剖学的構造の一部に作業を行うための1つまたは複数の仮想ガイドを含む、仮想ガイダンスを表示するように構成されてよい。例えば、可視化システムは、患者の上腕骨の解剖頸に重ね合わされた仮想切断面を表示してよい。いくつかの例では、外科医等のユーザは、現実世界シーンの現実世界の物体を見ている場合がある。現実世界シーンは、手術室等の現実世界環境であってよい。本開示において、現実という用語と現実世界という用語は同じように用いられてよい。現実世界シーンでユーザが見る現実世界の物体は、手術中に露出される、実際の関節窩または上腕骨等、患者の実際の現実の解剖学的構造を含み得る。ユーザは、可視化デバイス213等のヘッドマウントのMR可視化デバイスのシースルーのホログラフィックレンズ等のシースルー(例えば、透明)画面を介して現実世界の物体を見てよく、また、MRガイダンス物体(複数可)が現実世界シーンの一部であるように、例えば、仮想物体が実際の現実世界シーンに一体化されてユーザに見えるように、画面上または現実世界シーン内に投影されて現れる仮想MR物体等の仮想ガイダンスを見てよい。例えば、仮想切断面/線は、切断面が、透明画面を通して、例えば、シースルーのホログラフィックレンズを通して、外科医が見る患者の実際の上腕骨の実際の観察ビューに重ね合わせられ、そのビュー内に位置して見えるように、可視化デバイス213等のMR可視化デバイスの画面に投影されてよい。よって、この例では、仮想切断面/線は、実際の現実世界の物体と共に、現実世界環境の一部のように見える仮想3D物体であってよい。
外科医が実際の現実の解剖学的構造を見ながら、仮想の解剖学的構造及び/または仮想の手術ガイダンス等の仮想物体も観察する画面は、1つまたは複数のシースルーのホログラフィックレンズを含んでよい。「導波路」とも呼ばれることもあるホログラフィックレンズは、ユーザが、レンズを通して現実世界の物体を見るのを可能にしてよく、ユーザが見るために投影されたホログラフィックオブジェクトを表示してよい。上記のように、可視化デバイス213の適切なヘッドマウントMRデバイスの例は、米国ワシントン州レドモンドのマイクロソフト社製のMicrosoft HOLOLENS(商標)ヘッドセットである。HOLOLENS(商標)ヘッドセットは、投影された画像がユーザに提示される導波路とも呼ばれるシースルーのホログラフィックレンズを含む。HOLOLENS(商標)ヘッドセットはまた、内蔵のコンピュータ、カメラ及びセンサと、ホログラフィックレンズを介してユーザが見るためのホログラフィックコンテンツを投影する投影システムとを含む。一般に、Microsoft HOLOLENS(商標)ヘッドセットまたは類似のMR可視化デバイスは、上記のように、例えば、ディスプレイデバイスからの光を光導波路に結合する光学コンポーネントを介して、導波路とも呼ばれるホログラフィックレンズ内に画像を投影するLCoSディスプレイデバイスを含んでよい。導波路は、ユーザが、導波路を介してユーザに提示された3D仮想画像を見ながら、導波路を通して現実世界シーンを見るのを可能にし得る。いくつかの例では、導波路は回折導波路であってよい。
仮想切断面等の提示仮想ガイダンスは、例えば、外科医が実際の上腕骨頭を見ながら可視化システムを介して表示された仮想切断面に沿って鋸を導くことによって、機械的ガイドを必要とせずに、外科医が上腕骨頭を正確に切除するのを可能にし得る。このように、可視化デバイス213を有するMRシステム212等の可視化システムは、(例えば、機械的ガイドの正確さを有するが、機械的ガイドを使用する短所無く)外科医が正確な作業を行うのを可能にし得る。この「ガイド無し」手術は、いくつかの例では、コスト及び複雑性を低減し得る。
可視化システム(例えば、MRシステム212/可視化デバイス213)は、異なるタイプの仮想ガイドを表示するように構成されてよい。仮想ガイドの例は、仮想点、仮想軸、仮想角度、仮想パス、仮想平面、及び仮想表面もしくは輪郭を含むが、これらに限らない。上記のように、可視化システム(例えば、MRシステム212/可視化デバイス213)は、仮想ガイドを表示、例えば、投影するレンズを介して、患者の解剖学的構造をユーザが直接見るのを可能にし得る。仮想ガイドは、手術の様々な側面をガイドまたは支援し得る。例えば、仮想ガイドは、人工装具の取付のための解剖学的構造の準備または人工装具の解剖学的構造への取付の少なくとも1つをガイドしてよい。
可視化システムは、本明細書に記載の仮想手術計画等の仮想手術計画から仮想ガイドのパラメータを取得してよい。例示の仮想ガイドのパラメータは、ガイドの位置、ガイドの向き、ガイドのタイプ、ガイドの色等を含むが、必ずしもこれらに限らない。
可視化システムは、例えば、ホログラフィックレンズを通してユーザが見る実際の現実世界の患者の解剖学的構造(例えば、患者の解剖学的構造の少なくとも一部分)と仮想ガイド(複数可)とを表示することによって、現実世界環境内で、患者の実際の現実の解剖学的物体上に仮想ガイドが重なって見えるように、仮想ガイドを表示してよい。例えば、仮想ガイドは、実際の現実の解剖学的物体と共に、現実世界環境内に存在するように見える3D仮想物体であってよい。
本開示の技術は、肩関節形成術に関して以下に記載される。肩関節形成の例は、逆関節形成、補強使用逆関節形成、標準的な全肩関節形成、補強使用全肩関節形成、及び半関節形成を含むが、これらに限らない。しかしながら、技術は、これらに制限されず、可視化システムを使用して、任意のタイプの手術で仮想ガイドを含む仮想ガイダンス情報を提供してよい。MRシステム212等の可視化システムを使用して仮想ガイドを提供し得る他の例示の処置は、他のタイプの整形外科手術、接尾辞「形成術(plasty)」「開口術(stomy)」「切除(ectomy)」「崩壊(clasia)」または「穿刺(centesis)」を伴う任意のタイプの手術、肘、手首、指、股関節、膝、足首もしくは足指等の他の関節の整形外科手術、または、精密ガイダンスが望ましい任意の他の整形外科手術を含むが、これらに限らない。
典型的な肩関節形成は、患者の肩甲骨に対する様々な作業と、患者の上腕骨に対する様々な作業とを行うことを含む。肩甲骨に対する作業は一般に、プロテーゼを取り付けるために肩甲骨(例えば、肩甲骨の関節窩空洞)の準備を行うことと、準備された肩甲骨にプロテーゼを取り付けることとして記載されてよい。同様に、上腕骨に対する作業は通常、プロテーゼを取り付けるために上腕骨の準備を行うことと、準備された上腕骨にプロテーゼを取り付けることとして記載されてよい。本明細書に記載のように、可視化システムは、このような関節形成術で行われる任意または全ての作業のガイダンスを提供し得る。
上記のように、MRシステム(例えば、MRシステム212、図18のMRシステム1800A等)は、人工装具を患者に取り付けるための、及び/または、人工装具を受け入れるために患者の骨、軟組織または他の解剖学的構造の準備をするための仮想手術計画を受信してよい。仮想手術計画は、行うべき様々な作業と、行うべき作業のための様々なパラメータを指定してよい。一例として、仮想手術計画は、リーミングを行う患者の関節窩上の箇所と、リーミングの深さを指定してよい。別の例として、仮想手術計画は、患者の上腕骨頭を切除する表面を指定してよい。別の例として、仮想手術計画は、1つまたは複数の固定具位置(例えば、ネジ、ステム、ペグ、キール等)の場所及び/または向きを指定してよい。
いくつかの例では、MRシステム212は、患者の上腕骨に対する作業を行う時、外科医を支援する仮想ガイダンスを提供してよい。図34~図41に示すように、MRシステム212は、患者の上腕骨を準備し、上腕骨頭から骨移植片を取り除く時に、外科医を支援する仮想ガイダンスを提供してよい。図42A~49に示すように、MRシステム212は、上腕骨頭の全てまたは一部を取り除くための切断等、上腕骨の準備の時に外科医を支援する仮想ガイダンスを提供してよい。図50は、本開示の1つまたは複数の技術による、上腕骨にインプラントを取り付けるための仮想ガイダンスを提供するMRシステム212を示す概念図である。ツールを使用して、上腕骨3200にインプラントを取り付けてよい。例えば、外科医は、ハンドル4802を利用して、プロテーゼ5000を準備された上腕骨3200に挿入してよい。いくつかの例では、1つまたは複数の接着剤(例えば、膠、セメント等)が、挿入前に、プロテーゼ5000及び/または上腕骨3200に適用されてよい。図50に示すように、MRシステム212は、上腕骨内にインプラントを受け、インプラントを配置するための上腕骨の準備等、上腕骨インプラント配置において、外科医を支援する仮想ガイダンスを提供してよい。
いくつかの例では、MRシステム212は、患者の肩甲骨に対する作業を行う時、外科医を支援する仮想ガイダンスを提供してよい。図51~図62に示すように、MRシステムは、肩甲骨の準備(例えば、図19のステップ1906のリーミング軸ドリルプロセスを行う一部として、図19のステップ1908のリーミング軸ガイドピン挿入プロセスを行う一部として、及び/または、図19のステップ1910の関節窩リーミングプロセスを行う一部として)、外科医を支援する仮想ガイダンスを提供してよい。図63~図65に示すように、MRシステムは、肩甲骨インプラント配置において(例えば、図19のステップ1912の関節窩インプラント取付プロセスを行う一部として)外科医を支援する仮想ガイダンスを提供してよい。
プロテーゼ取付のために上腕骨を準備し、実際のプロテーゼ取付を行うために多くの異なる技術を使用してよい。使用する技術に関わらず、MRシステム212は、準備及び取付の一方または両方を支援する仮想ガイダンスを提供してよい。従って、以下の技術は、MRシステム212が仮想ガイダンスを提供する例であるが、MRシステム212は、他の技術にも仮想ガイダンスを提供してよい。
例示の技術では、作業ステップは、上腕骨頭の切除、パイロット穴の作成、上腕骨に対する測深、穿孔、圧縮、表面準備、及び、インプラントの上腕骨への取付を含む。さらに、いくつかの技術では、作業ステップは、例えば、インプラントの配置のために、例えば、関節窩等の骨表面に対するインプラントの補強のために、ガイドの上腕骨頭への取付、移植片のリーミング、移植片へのドリルによる穴開け、移植片の切断、及び、移植片の除去等の骨移植片作業ステップを含み得る。
外科医は、患者の上腕骨を露出するための1つまたは複数のステップを行ってよい。例えば、外科医は、上腕骨頭を含む上腕骨の上部を露出させるために1つまたは複数の切開を行ってよい。外科医は、1つまたは複数の開創器を配置して露出を維持してよい。いくつかの例では、MRシステム212は、例えば、切開の実行及び/または開創器の配置によって上腕骨の露出を支援するガイダンスを提供してよい。
図34及び図35は、本開示の1つまたは複数の技術による、上腕骨頭への機械的ガイドの取付の仮想ガイダンスを提供するMRシステムを示す概念図である。説明目的で、周囲の組織及び一部の骨が、図34及び図35、並びに他の図面から省略されていることに注意されたい。図34に示すように、MRシステム212は、上腕骨3200の上腕骨頭3204上に仮想軸3400を表示してよい。図34とそれに続く図面は、外科医または他のユーザが可視化デバイス213を介して見ている時に見える物を示す。詳細には、可視化デバイス213を介して見ている時、外科医は、上腕骨3200の一部と、上腕骨3200の一部の上に重ね合わせられた仮想軸3400(及び/または他の仮想ガイダンス)とが見える。
仮想軸3400を表示するために、MRシステム212は、ガイドを取り付ける上腕骨3200の仮想モデル上の箇所を決定してよい。MRシステム212は、仮想手術計画(例えば、仮想計画システム202によって生成された上記の仮想手術計画)から箇所を取得してよい。MRシステム212によって取得された場所は、仮想モデル上の点の座標とベクトルの一方または両方を指定してよい。点は、ガイドを取り付ける位置であってよく、ベクトルは、ガイドを取り付ける角度/傾斜を示してよい。従って、MRシステム212は、仮想手術計画から取得したパラメータを有する仮想ドリル軸を表示してよく、仮想ドリル軸は、(例えば、ガイドピンを肩甲骨に取り付けるための)関節窩へのドリルによる1つまたは複数の穴開けをガイドするように構成される。
上記のように、上腕骨3200の仮想モデルは、仮想モデルの座標が上腕骨3200の座標とほぼ対応するように、上腕骨3200に位置合わせされてよい。従って、仮想モデルの決定された箇所に仮想軸3400を表示することによって、MRシステム212は、上腕骨3200の計画した位置に仮想軸3400を表示してよい。
外科医は、表示された仮想ガイダンスを使用して物理的ガイドを取り付けてよい。例えば、ガイドが、セルフタッピングのねじ付き遠位端を有するガイドピンである場合、外科医は、ガイドピンを表示された仮想軸3400に整列させ、ドリルまたは他の器具を利用してガイドピンを取り付けてよい。いくつかの例では、MRシステム212は、外科医がガイドピンを計画した深さに取り付けることができるように、深さガイダンス情報を表示してよい。深さガイダンス情報の例については、図66~図68を参照して本明細書にさらに詳細に考察する。
図35は、上腕骨頭3204に取り付けられたガイド3500を示す概念図である。ガイド3500は、上腕骨頭に形成された穴に取り付けられる細長いピンの形態を取ってよい。図34及び図35に示すように、仮想軸3400を表示することによって、外科医は、上腕骨頭3204の計画した位置にガイド3500を取り付け得る。このように、MRシステム212は、追加の機械的ガイドを必要とすることなく、ガイドを取り付けることを可能にし得る。
上記のように、MRシステム212は、仮想マーカ等の仮想ガイダンスを提供して、ガイドピンの取付で外科医を支援してよい。例えば、図34の例では、MRシステム212は、ガイドピンの取付で外科医を支援するために仮想軸3400を表示してよい。MRシステム212が表示し得る仮想マーカの他の例は、軸、点、丸、リング、多角形、X形、十字、または任意の他の形状もしくは形状の組み合わせを含むが、これらに限らない。MRシステム212は、仮想マーカを、静止したものとして、または、様々なアニメーションもしくは他の効果を有するものとして表示してよい。
図36A~図36Dは、MRシステム212が表示し得る仮想マーカの例を示す。図36Aは、MRシステム212が仮想マーカ3600Aを点として表示する例を示す。図36Bは、MRシステム212が仮想マーカ3600Bを十字/X形として表示する例を示す。図36Cは、MRシステム212が仮想マーカ3600Cを十字線として表示する例を示す。図36Dは、MRシステム212が仮想マーカ3600Dを十字線と軸の組み合わせとして表示する例を示す。
上記のように、いくつかの例では、MRシステム212は、様々なアニメーションまたは他の効果を有する仮想マーカを表示してよい。一例として、MRシステム212は、回転するリングを有する十字線として仮想マーカを表示してよい。別の例として、MRシステム212は、点滅する十字/X形として仮想マーカを表示してよい。
MRシステム212は、特定の色を有する仮想マーカを表示してよい。例えば、いくつかの例では、MRシステム212は、緑、青、黄色等の赤以外の色で仮想マーカを表示することが好ましい場合がある。仮想マーカを赤以外の色(複数可)で表示することは、1つまたは複数の利点を提供し得る。例えば、血液は赤く見え、血液が対象とする解剖学的構造に、またはそのまわりに存在する場合、赤い色の仮想マーカは見えない可能性がある。
上記の様々なタイプの仮想マーカの使用は、ガイドピンの取付に制限されない。例えば、MRシステム212は、上記仮想マーカのいずれかを表示して、任意の作業を行う外科医を支援してよい。一例として、MRシステム212は、上記仮想マーカのいずれかを表示して上腕骨3200に対して任意の作業を行う外科医を支援してよい。別の例として、MRシステム212は、上記仮想マーカのいずれかを表示して肩甲骨5100に対して任意の作業を行う外科医を支援してよい。
図37及び図38は、本開示の1つまたは複数の技術による、上腕骨頭の移植片をリーミングするための仮想ガイダンスを提供するMRシステムを示す概念図である。図37及び図38に示すように、移植片リーミングツール3700を使用して、上腕骨頭3204の表面をリーミングし、(図38に示すように)輪郭線3800を切り取ってよい。
外科医は、移植片リーミングツール3700をドリルまたは他の器具に接続してよく、MRシステム212は、上腕骨頭3204の表面のリーミングと輪郭線3800の切り取りを支援する仮想ガイダンスを表示してよい。例えば、MRシステム212は、外科医が上腕骨頭3204の表面をリーミングし、輪郭線3800を目標深さまで切り取るのを可能にする深さガイダンス(例えば、図66~図68を参照して以下に記載する深さガイダンスと類似した深さガイダンス)を表示してよい。別の例として、MRシステム212は、ターゲッティングガイダンスを提供してよい。例えば、MRシステム212は、(例えば、図36A~図36Dを参照して前述した)リーミングの中心点または規定の軸を識別する仮想マーカ、及び/または移植片リーミングツール3700が規定の軸と整列しているかどうかを示すものの一方または両方を表示してよい。図38に示すように、外科医は、リーミングを行った後、移植片リーミングツール3700をガイド3500から取り除いてよい。
この例では、移植片リーミングツール3700は、ガイド3500等のガイドピンによって配置及び/またはガイドされるように構成されるカニューレ付きリーミングツールであってよい。他の例では、移植片リーミングツール3700は、カニューレ付きでなくてよく、物理的ガイドピンの支援でガイドされてよい。例えば、MRシステム212は、外科医が、ガイド3500を使用することなく、上腕骨頭3204から移植片をリーミングするのを可能にする仮想ガイダンス(例えば、表示された仮想マーカ等の深さガイダンス及び/またはターゲッティングガイダンス)を提供してよい。従って、MRシステム212は、仮想手術計画から取得されるパラメータ(例えば、肩甲骨の仮想モデルに対する位置、サイズ及び/または向き)を有する仮想リーミング軸を表示してよい。表示された仮想リーミング軸は、上腕骨頭及び/または上腕骨頭からの移植片のリーミングをガイドするように構成されてよい。
図39及び図40は、本開示の1つまたは複数の技術による、上腕骨頭の移植片にドリルで穴を開けるための仮想ガイダンスを提供するMRシステム212等のMRシステムを示す概念図である。図39及び図40に示すように、ドリルビット3900を使用して、上腕骨頭3204に中心穴4000を開けてよい。
外科医は、ドリルビット3900をドリルまたは他の器具に接続してよく、MRシステム212は、中心穴4000の作成を支援する仮想ガイダンスを表示してよい。例えば、MRシステム212は、外科医が目標深さまで中心穴4000を開けるのを可能にする深さガイダンス(例えば、図66~図68を参照して以下に記載する深さガイダンスと類似した深さガイダンス)を表示してよい。別の例として、MRシステム212は、ターゲッティングガイダンスを提供してよい。例えば、MRシステム212は、(例えば、図36A~図36Dを参照して前述した)ドリルによる穴開けの中心点または規定の軸を識別する仮想マーカ、及び/またはドリルビット3900が規定の軸上にあるかどうかを示すものの一方または両方を表示してよい。
この例では、リルビット3900は、ガイド3500等のガイドピンによって配置及び/またはガイドされるように構成されたカニューレ付きリーミングツールであってよい。他の例では、ドリルビット3900は、カニューレ付きでなくてよく、物理的ガイドピンの支援でガイドされてよい。例えば、MRシステム212は、外科医がガイド3500を使用することなく中心穴4000を開けることを可能にする仮想ガイダンス(例えば、仮想マーカ等の深さガイダンス及び/またはターゲッティングガイダンス)を提供してよい。
図41は、本開示の1つまたは複数の技術による、上腕骨頭の移植片の切断のための仮想ガイダンスを提供するMRシステムを示す概念図である。図41に示すように、上記リーミングとドリルによる穴開けの作業ステップによって、底面がまだ上腕骨3200に付いた状態のトロイド形状を有する移植片4102となり得る。外科医は、振動鋸4104等のツールを使用して、上腕骨3200から移植片4102を切断してよい。
MRシステム212は、仮想ガイダンスを表示して、切断プロセスを支援してよい。一例として、MRシステム212は、ターゲッティングガイダンスを提供してよい。例えば、MRシステム212は、仮想切断表面4100(例えば、図36A~図36Dを参照して上述した仮想切断面または仮想マーカのいずれか)等の仮想マーカを表示してよく、仮想切断表面4100は、ツールを使用して外科医が切断する場所及び/またはツール(例えば、振動鋸4104)が仮想切断表面と整列しているかどうかを示すものを示す。MRシステム212は、仮想切断面の位置及び向きを仮想手術計画から取得してよい。従って、MRシステム212は、上腕骨頭からの移植片の切断をガイドする仮想手術計画から取得されたパラメータ(例えば、上腕骨頭の仮想モデルに対する位置、サイズ及び/または向き)を有する仮想切断面を表示してよい。図41に示すように、MRシステム212は、移植片4102の底部と平行なまたは同じ平面上に仮想切断表面4100を表示してよい。別の例として、MRシステム212は、移植片4102の仮想モデルを表示してよい。例えば、MRシステム212は、移植片4102の輪郭線を表示してよい。別の例として、MRシステム212は、深さガイダンス(例えば、図66~図68を参照して以下に記載する深さガイダンスと類似した深さガイダンス)を提供してよい。例えば、MRシステム212は、外科医が目標深さまで切断するのを可能にする深さガイダンスを表示してよい。
外科医は、任意の目的で移植片を利用してよい。例えば、外科医は、プロテーゼと患者の関節窩の間の空の空間を埋めるために、及び/または、プロテーゼを患者の関節窩に取り付ける時オフセットを提供/増加させるために移植片を利用してよい。
プロテーゼの埋め込みのために上腕骨を準備するために、外科医は、上腕骨頭を切除、切断、または他の方法で取り除いてよい。移植片の除去を伴う上腕骨頭の切断、及び、移植片の除去のない上腕骨頭の切断を含む、上腕骨頭切除のための幾つかのMR支援技術が企図される。第1の例示の技術において、MRシステム212は、例えば、移植片を採取すること無しに、上腕骨頭を切除する時に、外科医をガイドする仮想切断面等の仮想切断表面を表示してよい。この場合、機械的ガイドの必要性が無くなり、手順の複雑さを減らし、場合によっては手順のコストも減らしながら、正確性を維持し得る。第1の例示の技術の更なる詳細は、図42A~図42Cを参照して以下に記載する。第2の例示の技術においては、MRシステム212は、上腕骨上に物理的ガイド、すなわち、機械的ガイドを取り付ける時に外科医をガイドする仮想軸を表示してよく、物理的ガイド、すなわち、機械的ガイドは、その後、上腕骨頭を切除する時に外科医をガイドする。第2の例示の技術の更なる詳細は、図43を参照して以下に記載する。
図42A~図42Cは、本開示の1つまたは複数の技術による、上腕骨頭切除のための仮想ガイダンスを提供するMRシステムを示す概念図である。図42A及び図42Bに示すように、MRシステム212は、上腕骨3200上の計画した位置に仮想切断面4200を表示してよい。仮想切断面4200を表示するために、MRシステム212は、上腕骨3200の仮想モデル上の、上腕骨頭3204を切除すべき箇所を決定してよい。MRシステム212は、仮想手術計画(例えば、上記の仮想手術計画)からその箇所を取得してよい。従って、MRシステム212は、上腕骨頭の一部の切除をガイドする仮想手術計画から取得されたパラメータ(例えば、上腕骨の仮想モデルに対する位置、サイズ及び/または向き)を有する仮想切断表面(例えば、切断面)を表示してよい。
上記のように、上腕骨3200の仮想モデルは、仮想モデルの座標が上腕骨3200の座標とほぼ対応するように、上腕骨3200に位置合わせされてよい。従って、仮想切断面4200を仮想モデルの決定された箇所に表示することによって、MRシステム212は、上腕骨3200の計画した位置に、仮想切断面4200を表示してよい。
外科医は、表示された仮想ガイダンスを使用して、上腕骨頭3204を切除してよい。例えば、外科医は、振動鋸4104を利用して仮想切断面4200に沿って切断することによって上腕骨頭3204を切除してよい。いくつかの例では、MRシステム212は、ツール(例えば、振動鋸4104)が規定の平面上にあるかどうかを示すターゲッティングガイダンスを表示してよい。
図43は、本開示の1つまたは複数の技術による、仮想ガイダンスを使用して配置された上腕骨頭切除のための物理的ガイドを示す概念図である。上記のように、第2の例示の技術において、MRシステム212は、物理的ガイドを取り付ける時に外科医をガイドする仮想軸を表示してよく、物理的ガイドは、上腕骨頭を切除する時に外科医をガイドする。例えば、MRシステム212は、図34及び図35を参照して前述した技術と類似する技術を用いて、仮想軸等の仮想マーカを表示してよい。外科医は、物理的ガイド3500(例えば、ガイドピン)の取付をガイドする仮想軸を使用してよい。従って、MRシステム212は、ガイドピンの上腕骨への取付をガイドする仮想手術計画から取得されたパラメータ(例えば、上腕骨の仮想モデルに対する位置、サイズ及び/または向き)を有する仮想ドリル軸を表示してよい。上記のように、ガイドピンは、切除ガイドの上腕骨への取付をガイドするように構成されてよい。
外科医は、ガイド3500を使用して、切除ガイド4300の取付を支援してよい(例えば、ガイドピンは、上腕骨への切除ガイドの取付をガイドするように構成されてよい)。一般に、切除ガイド4300は、上腕骨頭を切除するためのツール(例えば、振動鋸)を物理的にガイドするように構成された物理的アセンブリであってよい。図43の例では、切除ガイド4300は、プレート4302A及び4302B(集合的に、「プレート4302」)、上部プレート4308、調整ネジ4306A及び4306B(集合的に、「調整ネジ4306」)、及びガイド受容部4310を含む。
ガイド受容部4310は、切除ガイド4300がガイド3500上を通るように、ガイド3500を受け入れるサイズであってよい。プレート4302は、スロット4304を画定し、スロット4304は、プレート4302間を切断面4312にわたって、物理的ガイドツール(例えば、振動鋸)を受け入れ、ガイドするサイズであってよい。上部プレート4308は、(本来の、または、移植片を取り除く作業が行われた後の)上腕骨頭3204の最上部に載るように構成されてよい。調整ネジ4306は、プレート4302を、従って、切断面4312を上部プレート4308に対して位置決めするように集合的にまたは独立して調整されてよい。
MRシステム212は、切除ガイド4300の位置決めを支援する仮想ガイダンスを提供してよい。一例として、MRシステム212は、切断面4312の所望の箇所に仮想切断面を表示してよい。外科医は、スロット4304が仮想切断面と整列するまで調整ネジ4306を調整してよい。いくつかの例では、MRシステム212は、どの調整ネジ4306を締めるまたは緩めるべきかに関するガイダンスを提供してよい。切除ガイド4300が適切に構成される(例えば、スロット4304が仮想切断面と整列する)と、外科医は、ツールを操作して、上腕骨頭3204を切除してよい。
図44及び図45は、本開示の1つまたは複数の技術による、上腕骨にパイロット穴を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。図44及び図45に示すように、スタータの錐4400を使用して、切除のヒンジ点に上腕骨管と一直線になるパイロット穴を作成してよい。
MRシステム212は、パイロット穴の作成を支援する仮想ガイダンスを提供してよい。一例として、MRシステム212は、外科医がパイロット穴を作成すべき箇所を表す仮想マーカ(例えば、仮想点4402)等のターゲッティングガイダンスを表示してよい。例えば、MRシステム212は、上腕骨頭を切除した後、上腕骨へのパイロット穴作成をガイドする仮想手術計画から取得されたパラメータ(例えば、上腕骨の仮想モデルに対する位置、サイズ及び/または向き)を有する仮想軸を表示してよい。別の例として、MRシステム212は、深さガイダンス、例えば、図66~図68を参照して以下に記載する深さガイダンスを表示して、外科医がパイロット穴を規定の深さまで作成するのを支援してよい。
図46は、本開示の1つまたは複数の技術による、上腕骨の測深のための仮想ガイダンスを提供するMRシステムを示す概念図である。図46に示すように、測深器4600は、上腕骨3200の遠位部の上限サイズを決定してよい。いくつかの例では、本明細書に記載するように、上限サイズまで異なるサイズの複数の測深器を使用してよい。
MRシステム212は、測深を支援する仮想ガイダンスを提供してよい。一例として、MRシステム212は、測深器4600のための仮想ターゲッティングガイダンスを表示してよい。例えば、MRシステム212は、(例えば、図36A~図36Dを参照して前述したように)測深器4600を挿入すべき箇所を示す仮想マーカを表示してよい。
図47は、本開示の1つまたは複数の技術による、上腕骨の穿孔のための仮想ガイダンスを提供するMRシステムを示す概念図である。図47に示すように、外科医は、穿孔テンプレート4700を測深器4600(または、測深ステップ中に決定された最終的な測深器)に取り付けてよい。外科医は、4702がテンプレート4700の底に達するまで、パンチ4702をテンプレート4700に挿入してよい。外科医は次に、測深器4600、テンプレート4700及びパンチ4702を上腕骨3200から引き出すことによって切れ目を入れられた骨を取り除いてよい。
MRシステム212は、穿孔を支援する仮想ガイダンスを提供してよい。一例として、MRシステム212は、パンチ4702がテンプレート4700に適切に配置されているかどうかを示すものを表示してよい。例えば、パンチ4702がテンプレート4700に適切に配置されている場合、MRシステム212は、適切な位置を示す仮想マーカ(例えば、チェックマーク)を表示してよい。同様に、パンチ4702がテンプレート4700に適切に配置されていない場合、MRシステム212は、不適切な位置を示す仮想マーカ(例えば、X)を表示してよい。
図48は、本開示の1つまたは複数の技術による、上腕骨を圧縮するための仮想ガイダンスを提供するMRシステムを示す概念図である。図48に示すように、コンパクタ4800は、ハンドル4802に取り付けられて、上腕骨3200に挿入されてよい。いくつかの例では、複数のコンパクタを使用してよい。例えば、外科医は、最終的な測深器のサイズ未満の3つのサイズのコンパクタで開始してよく、満足のいく固定を達成するまで、順次、圧縮してよい。十分に固定されているかは、ハンドル4802のわずかなトルク運動によって評価することができる。十分に固定されている場合、コンパクタ4800は、このテスト中、上腕骨内で移動しないはずである。
MRシステム212は、圧縮を支援するための仮想ガイダンスを提供してよい。一例として、MRシステム212は、十分に固定されているかどうかを示すものを表示してよい。例えば、十分に固定されているとMRシステム212が判断する場合、MRシステム212は、十分な固定を示す仮想マーカ(例えば、チェックマーク)を表示してよい。同様に、十分に固定されていないとMRシステム212が判断する場合、MRシステム212は、固定不十分を示す仮想マーカ(例えば、X)を表示してよい。
外科医は、コンパクタ4800(例えば、最終的なコンパクタ)をハンドル4802から取り外してよい。外科医は次に、1つまたは複数の表面処理ステップを行ってよい。
図49は、本開示の1つまたは複数の技術による、上腕骨の表面の準備をするための仮想ガイダンスを提供するMRシステムを示す概念図である。図49に示すように、外科医は、(例えば、プロテーゼにとって正しい平らな切除を確実にするために)表面プレーナ4900を使用して、上腕骨3200の表面を準備してよい。
MRシステム212は、表面の準備を支援する仮想ガイダンスを提供してよい。例えば、MRシステム212は、(図66~図68を参照して以下に記載するターゲッティングガイダンスと類似した)ターゲッティングガイダンスを提供して、外科医が計画した/規定の軸上に表面プレーナ4900を維持するのを支援してよい。
多くの異なる技術を使用して、プロテーゼ取付のための肩甲骨の準備と、実際のプロテーゼ取付を行ってよい。使用する技術に関わらず、MRシステム212は、準備及び取付の一方または両方を支援する仮想ガイダンスを提供してよい。従って、以下の技術は、MRシステム212が仮想ガイダンスを提供する例であるが、MRシステム212は、他の技術に対して仮想ガイダンスを提供してよい。
例示の技術では、手術ステップは、肩甲骨の関節窩へのガイドの取付、関節窩のリーミング、関節窩に中心穴を作成、関節窩に追加の固定位置を作成、及び、準備した関節窩へのインプラントの取付を含む。ガイドピンを使用するので、例示の技術は、カニューレ技術と見なされてよい。しかしながら、技術は、カニューレを使わない技術にも同様に適用可能である。
外科医は、患者の関節窩を露出する1つまたは複数のステップを行ってよい。例えば、患者の腕を外転及び内旋して、外科医は、関節窩を露出するための1つまたは複数の切開を行ってよい。外科医は、露出を維持するように1つまたは複数の開創器を配置してよい。いくつかの例では、MRシステム212は、露出及び/または開創器の配置を支援するガイダンスを提供してよい。
図51は、本開示の1つまたは複数の技術による、肩甲骨の関節窩にガイドを取り付けるためにユーザに仮想ガイダンスを提供するMRシステムを示す概念図である。図51に示すように、MRシステム212は、肩甲骨5100の関節窩5102上に、例えば、仮想軸5104の形態で仮想ガイダンスを表示してよい。仮想軸5104を表示するために、MRシステム212は、関節窩5102の仮想モデル上に、ガイドを取り付ける箇所を決定してよい。MRシステム212は、仮想手術計画(例えば、上記仮想手術計画)からその箇所を取得してよい。MRシステム212が取得した箇所は、仮想モデル上の点の座標及びベクトルの一方または両方を指定してよい。点は、ガイドを取り付ける位置であってよく、ベクトルは、ガイドを取り付ける角度/傾斜を示してよい。従って、MRシステム212は、仮想手術計画から取得されたパラメータ(例えば、肩甲骨の仮想モデルに対する位置、サイズ及び/または向き)を有する仮想リーミング軸を表示してよい。表示された仮想リーミング軸は、関節窩のリーミングをガイドするように構成されてよい。
上記のように、関節窩5102の仮想モデルは、仮想モデルの座標が関節窩5102上の座標とほぼ対応するように、関節窩5102に位置合わせされてよい。従って、仮想モデルの決定された箇所に仮想軸5104を表示することによって、MRシステム212は、関節窩5102の計画した位置に仮想軸5104を表示してよい。
これも前述したように、関節窩5102の仮想モデルは、位置合わせ後、選択的に表示されてよい。例えば、関節窩5102の仮想モデルが関節窩5102に位置合わせされた後、MRシステム212は、仮想モデルの表示を停止してよい。あるいは、MRシステム212は、位置合わせ後、仮想モデルを関節窩5102に重ね合わせて表示するのを継続してよい。仮想モデルの表示は、外科医が仮想モデルの表示を有効または無効にし得るという点で選択的であってよい。
MRシステム212は、仮想モデル及び/または仮想ガイドを様々な不透明度(例えば、透明度)で表示してよい。不透明度は、自動的に、手動で、またはその両方で調整されてよい。一例として、外科医は、ユーザ入力をMRシステム212に提供して、仮想モデル及び/または仮想ガイドの不透明度を手動で調整してよい。別の例として、MRシステム212は、視野の光の量(例えば、外科医が見ている光の量)に基づいて、自動的に不透明度を調整してよい。例えば、MRシステム212は、仮想モデル及び/または仮想ガイドの不透明度を調整(例えば、透明度を増加)して、視野の光の量と積極的に相関してよい(例えば、光が明るくなると、不透明度が増加/透明度が減少し、光が薄暗くなると、不透明度が減少/透明度が増加する)。
外科医は、表示された仮想ガイダンスを使用して、物理的ガイドを取り付けてよい。一例として、セルフタッピングのねじ付き遠位端を有するガイドピンの場合、外科医は、ガイドピンを表示された仮想軸5104に整列させ、ドリルまたは他の器具を利用して、ガイドピンを取り付けてよい。別の例として、ガイドが、セルフタッピングの先端を持たないガイドピンの場合、外科医は、ドリルのドリルビットを表示された仮想軸5104に整列させて、ドリルを操作してガイドピンを受ける穴を形成し、次に、ガイドピンをその穴に取り付けてよい。いくつかの例では、MRシステム212は、外科医がガイドピンを計画した深さに取り付けるのを可能にする深さガイダンス情報を表示してよい。深さガイダンス情報の例を、図66を参照して、本明細書により詳細に記載する。
図52は、ガイド5200、すなわち、この例では、関節窩5102に取り付けられたガイドピンを示す概念図である。図51及び図52に示すように、仮想軸5104を表示することによって、外科医は、リーミング軸とも呼ばれてよい仮想軸に整列するようにドリルで穴を開けることによって、関節窩5102の計画した位置にガイド5200を取り付けるための穴を形成してよい。このように、MRシステム212は、追加の機械的ガイドを必要とせずに、ガイドの取付を可能にし得る。
図53は、本開示の1つまたは複数の技術による、関節窩をリーミングするための仮想ガイダンスを提供するMRシステムを示す概念図である。図53に示すように、リーミングツール5300を使用して関節窩5102の表面をリーミングしてよい。この例では、リーミングツール5300は、ガイド5200等のガイドピンによって配置及び/またはガイドされるように構成されたカニューレ付きリーミングツールであってよい。例えば、カニューレ付きリーミングツールのシャフトは、ツールのシャフトがピンとほぼ同心円状に取り付けられるように、ガイド5200を受けてよい。他の例では、リーミングツール5300は、カニューレ付きでなくてよく、物理的ガイドピンの支援無しでガイドされててよい。
外科医は、リーミングツール5300をガイド5200に取り付けてよく(例えば、ガイド5200の近位端をリーミングツール5300に挿入してよく)、ドリルまたは他の器具を、リーミングツール5300を回転させるように取り付けてよい。リーミングを行うために、外科医は、リーミングが完了するまで、リーミングツール5300を回転させながら、ガイド5200に沿って下りるようにリーミングツール5300を進めてよい。
MRシステム212は、リーミングプロセスを支援する仮想ガイダンスを表示してよい。一例として、MRシステム212は、深さガイダンスを提供してよい。例えば、MRシステム212は、外科医が目標深さまでリーミングするのを可能にする深さガイダンスを表示してよい。別の例として、MRシステム212は、ターゲッティングガイダンスを提供してよい。例えば、MRシステム212は、リーミングツール5300が仮想リーミング軸と整列しているかどうかを示すものを表示してよい。
一度のリーミングステップとして本明細書に記載しているが、手術は、複数のリーミングステップを含んでよい。様々なリーミングステップは、同じ軸/ガイドピンを使用してよい、または、異なる軸/ガイドピンを使用してよい。異なるリーミングステップが異なる軸を使用する例では、MRシステム212は、異なる軸を使用するリーミングのための仮想ガイダンスを提供してよい。
図54及び図55は、本開示の1つまたは複数の技術による、(例えば、リーミング後に)関節窩に中心穴を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。図54及び図55に示すように、ドリルビット5400を使用して、関節窩5102に中心穴5500を開けてよい。この例では、ドリルビット5400は、ガイド5200等のガイドピンによって配置及び/またはガイドされるように構成されたカニューレ付きのドリルビットであってよい。他の例では、ドリルビット5400は、カニューレ付きでなくてよく、物理的ガイドピンの支援無しにガイドされてよい。例えば、MRシステム212は、外科医がガイド5200を使用せずに、関節窩5102にドリルで穴を開けるのを可能にする仮想ガイダンス(例えば、図66~図68を参照して以下に記載するような仮想マーカ、深さガイダンス、及び/またはターゲッティングガイダンスの任意の組み合わせ)を提供してよい。以下にさらに詳細に記載するように、中心穴5500は、例えば、1つまたは複数のアンカーを介して、プロテーゼの関節窩5102への取付を容易にし得る。
MRシステム212は、中心穴5500の作成を支援する仮想ガイダンスを表示してよい。例えば、MRシステム212は、外科医がドリルで中心穴5500を目標深さまで開けるのを可能にする深さガイダンスを表示してよい。別の例として、MRシステム212は、ターゲッティングガイダンス(例えば、図66~図68を参照して以下に記載する仮想マーカ及び/またはターゲッティングガイダンスの任意の組み合わせ)を提供してよい。例えば、MRシステム212は、ドリルビットツール5400が適切な位置に適切な向きで中心穴5500を形成するように選択された規定の軸上にあるかどうかを示すものを表示してよい。
中心穴(例えば、中心穴5500)に加えて、外科医が、関節窩に追加の固定位置を作成するのが望ましい場合がある。この追加の固定位置は、プロテーゼと関節窩の間の固定を向上させ得る。例えば、追加の固定位置は、プロテーゼと関節窩の間の回転防止サポートを提供し得る。取り付けるプロテーゼのタイプに応じて、幾つかの異なるスタイルの固定具を使用してよい。固定具のいくつかの例は、キール及びペグアンカーを含むが、必ずしもこれらに限らない。しかしながら、本明細書に記載の仮想ガイダンス技術は、任意のタイプの固定具に適用可能であってよい。キール型固定具のための例示のMRガイダンスについて、図56~図59を参照して以下に記載する。ペグ型の固定具のための例示のMRガイダンスについて、図60~図62を参照して以下に記載する。各場合において、固定具は、解剖学的関節形成のための関節窩ベースプレート、または、逆関節形成のための関節窩ベースプレート及び関節窩球等、関節窩インプラントを関節窩上に配置し、適切な位置に固定するのを支援し得る。
図56は、キール型固定具を有する関節窩プロテーゼを示す概念図である。図56に示すように、関節窩プロテーゼ5600は、関節窩5102の処理された表面(例えば、リーミングされた表面)に係合するように構成された後部表面5602と、関節窩5102に作成されたキールスロット(例えば、図59のキールスロット5902)に挿入されるように構成されたキールアンカー5604とを含む。
図57~図59は、本開示の1つまたは複数の技術による、関節窩にキール型固定位置を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。図57に示すように、MRシステム212は、関節窩5102にドリルで追加の穴を開けるための仮想ガイダンスを提供してよい。MRシステム212は、様々な方法のいずれかで、ドリルで追加の穴を開けるための仮想ガイダンスを提供してよい。一例として、MRシステム212は、指定された形状(例えば、軸、矢印、点、丸、X形状、十字、ターゲット等)、サイズ及び/または色を有する仮想マーカ等の仮想ガイダンスを、ドリルで追加の穴を開けるべき箇所に表示してよい。例えば、図57の例では、MRシステム212は、仮想マーカ5700A及び5700Bを、ドリルで追加の穴を開けるべき箇所に表示してよい。別の例として、MRシステム212は、ドリルで追加の穴を開けるべき箇所に仮想軸を表示して、外科医が関節窩骨に穴を開けるためにドリルビットを適切に整列させるのを支援してよい。例えば、MRシステム212は、(例えば、ドリルで追加の穴を開けるべき箇所に)仮想手術計画から取得された各パラメータを有する複数の仮想ドリル軸を表示してよく、複数の仮想ドリル軸の各仮想ドリル軸は、関節窩に各穴をドリルで開けることをガイドするように構成される。
MRシステム212は、仮想手術計画に基づいて、追加の穴の箇所を決定してよい。例えば、図51の仮想軸5104と同様に、MRシステム212は、関節窩5102の仮想モデル上で、ドリルで追加の穴を開けるべき箇所(複数可)を仮想手術計画から取得してよい。従って、仮想モデルの決定された箇所に仮想マーカ5700A及び5700Bを表示することによって、MRシステム212は、関節窩5102上の計画した位置に仮想マーカ5700A及び5700Bを表示してよい。上記のように、仮想手術計画は、計画が特定の患者に対して特別に開発され得るという点で、患者固有であってよい。従って、MRシステム212が仮想マーカ5700A及び5700Bを表示する関節窩5102上の計画した位置は、患者固有の計画した位置と見なされてよい。よって、計画した位置の箇所は、個々の患者固有の手術計画に従って、患者によって異なる。
外科医は、ドリルビット及びドリルを利用して、MRシステム212が示す箇所(複数可)に追加の穴(複数可)を作成してよい。例えば、図58に示すように、外科医は、仮想マーカ5700Aの箇所にドリルで穴5800Aをあけてよく、仮想マーカ5700Bの箇所にドリルで穴5800Bを開けてよい。外科医は、各穴に同じドリルビットを使用してよく、異なる穴に異なるドリルビットを使用してよい。
MRシステム212は、ドリルで追加の穴を開けるべき箇所を示す上記の仮想マーカ等の仮想マーカに追加して、または、その代わりに、ドリルで穴を開けるための仮想ガイダンスを提供してよい。一例として、MRシステム212は、ドリルがターゲット軸上にあるかどうかを示すターゲッティングガイダンスを提供してよい。この場合、仮想マーカの追加または代替として、MRシステム212は、ドリルで開けるべき各穴の箇所から外方向に延びるガイド軸を表示してよい。別の例として、MRシステム212は、ドリルで穴を開けるべき箇所に対応する穴をマスクに有するマスクを表示してよい。別の例として、MRシステム212は、外科医が目標深さまでドリルで穴5800A及び5800Bを開けるのを可能にする深さガイダンス(例えば、図66~図68を参照して以下に記載する深さガイダンス)を表示してよい。
MRシステム212は、穴を関節窩プロテーゼ5600のキールアンカー5604を受け入れることができるキールスロットにするための仮想ガイダンスを提供してよい。例として、MRシステム212は、穴5800A、5500及び5800Bの周りに仮想輪郭線5802を表示してよい。例えば、MRシステム212は、作成する所望のキールスロットの最終的な輪郭線にほぼ対応するように、仮想輪郭線5802を表示してよい。
外科医は、ツールを利用して穴5800A、5500及び5800Bをキールスロット5902にしてよい。図59に示すように、外科医は、キールパンチ5900を利用して、穴5800A、5500及び5800Bをキールスロット5902にしてよい。例えば、外科医は、仮想輪郭線5802によって示される領域にキールパンチ5900を打ち込んでよい。この場合、仮想輪郭線5802は、所望のキールスロット5902の形状及び寸法を画定し、外科医が穴をキールスロットの表示された仮想の輪郭線に視覚的に一致または近似する形態にするのを可能にする。
MRシステム212は、キールスロット5902を作成するための追加のまたは代替の仮想ガイダンスを提供してよい。一例として、MRシステム212は、外科医が、キールパンチ5900を目標深さまで打ち込むのを可能にする深さガイダンス(例えば、図66~図68を参照して以下に記載する深さガイダンスに類似した深さガイダンス)を表示してよい。別の例として、MRシステム212は、キールパンチ5900がターゲット軸上にあるかどうかを示すターゲッティングガイダンス(例えば、図66~図68を参照して以下に記載するターゲッティングガイダンスと類似のターゲッティングガイダンス)を提供してよい。別の例として、MRシステム212は、仮想輪郭線5802のための切り抜きを有するマスクを表示してよい。
図60は、ペグ型固定具を有する関節窩プロテーゼを示す概念図である。図60に示すように、関節窩プロテーゼ6000は、関節窩5102の処理された表面(例えば、リーミングされた表面)と係合するように構成された後部表面6002、関節窩5102に作成された中心穴に挿入されるように構成された中心ペグアンカー6004、及び、それぞれ、関節窩5102に作成された追加の穴に挿入されるように構成された1つまたは複数のペグアンカー6006A~6006C(集合的に、「ペグアンカー6006」)を含む。
図61及び図62は、本開示の1つまたは複数の技術による、関節窩にペグ型固定位置を作成するための仮想ガイダンスを提供するMRシステムを示す概念図である。図61に示すように、MRシステム212は、関節窩5102にドリルで追加の穴を開けるための仮想ガイダンスを提供してよい。MRシステム212は、様々な方法のいずれかでドリルで追加の穴を開けるための仮想ガイダンスを提供してよい。一例として、MRシステム212は、ドリルで追加の穴を開けるべき箇所に仮想マーカ(例えば、軸、点、丸、X形状等)を表示してよい。例えば、図61の例では、MRシステム212は、ドリルで追加の穴を開けるべき箇所に仮想マーカ5700A~5700Cを表示してよい。別の例として、MRシステム212は、ドリルで追加の穴を開けるべき箇所から延びる仮想軸を表示してよい。別の例として、MRシステム212は、ドリルで穴を開けるべき場所を示すマスク(実質的に、仮想マーカの逆)を表示してよい。
MRシステム212は、仮想手術計画に基づいて、追加の穴の箇所を決定してよい。例えば、図51の仮想軸5104同様に、MRシステム212は、関節窩5102の仮想モデル上にドリルで追加の穴を開ける箇所(複数可)を、患者固有であってよい仮想手術計画から取得してよい。従って仮想マーカマーカ5700A~5700Cを仮想モデル上の決定された箇所に表示することによって、MRシステム212は、仮想マーカ5700A~5700Cを関節窩5102上の計画した位置に表示してよい。
外科医は、ドリルビット(または、複数のドリルビット)及びドリルを利用して、MRシステム212が示す箇所(複数可)に追加の穴(複数可)を作成してよい。例えば、図62に示すように、外科医は、仮想マーカ5700Aの箇所にドリルで穴5800Aを開けてよく、仮想マーカ5700Bの箇所にドリルで穴5800Bを開けてよく、仮想マーカ5700Cの箇所にドリルで穴5800Cを開けてよい。
MRシステム212は、ドリルで追加の穴を開けるべき箇所を示す仮想マーカに加えて、または、その代わりにドリルで穴を開けるための仮想ガイダンスを提供してよい。一例として、MRシステム212は、ドリルがターゲット軸上にあるかどうかを示すターゲッティングガイダンスを提供してよい。別の例として、MRシステム212は、外科医がドリルで穴5800A~5800Cを目標深さまで開けるのを可能にする深さガイダンスを表示してよい。
異なるインプラントは、補強使用プロファイル等、異なるプロファイルを有し得ることに注意されたい。さらに、本明細書に記載するように、いくつかのインプラントは、骨移植片等、患者から採取された追加の材料と共に埋め込まれてよい。このような例のいくつかでは、MRシステム212は、追加の材料を配置するための仮想ガイダンスを提供してよい。例えば、MRシステム212は、骨移植片をインプラントに取り付けるための仮想ガイダンスと、移植片/インプラントアセンブリを患者に取り付けるためのガイダンスとを提供してよい。
いくつかの例では、使用される固定具のタイプに関わらず、外科医は、トライアルコンポーネントを利用して、関節窩5102が適切に準備されているかどうかを判断してよい。トライアルコンポーネントは、埋め込まれるプロテーゼの後部表面及びアンカーと同じサイズ及び位置の後部表面及びアンカーを有してよい。
図149は、本開示の1つまたは複数の技術による、解剖学的構造の準備のMR支援検証の例示の技術を示すフロー図である。上記のように、いくつかの例では、トライアルコンポーネントを使用して、患者の解剖学的構造の一部が適切に準備されたかどうかを判断してよい。例えば、埋め込まれる人工装具の表面に一致する表面を有するトライアルコンポーネントが、準備された解剖学的構造に/のまわりに/に接触して/等配置されてよい。トライアルコンポーネントの表面が、準備された解剖学的構造の表面と合致する場合、外科医は、解剖学的構造は適切に準備されたと判断してよい。しかしながら、いくつかの例では、トライアルコンポーネントの使用を必要とせずに、解剖学的構造が適切に準備されたかどうかを判断することが望ましい場合がある。
本開示の1つまたは複数の技術によると、MRシステム212は、仮想トライアルを行って、関節窩5102が適切に準備されているかどうかを判断してよい。例えば、MRシステム212は、関節窩が人工装具の取付のために準備された後、肩甲骨の関節窩の1つまたは複数の寸法を取得してよい(14902)。一例として、MRシステム212の1つまたは複数のセンサ(例えば、1つまたは複数のデプスカメラ及び/または1つまたは複数のRGBカメラ)が、準備した関節窩5102のデータをキャプチャしてよい。MRシステム212は、キャプチャされたデータに基づいて、準備した関節窩5102の1つまたは複数の寸法を決定してよい。
MRシステム212は、埋め込まれる人工装具の寸法を取得してよい(14904)。例えば、MRシステム212は、仮想手術計画、人工装具寸法のデータベース、または任意の他の適切なソースから人工装具の寸法を取得してよい。
MRシステム212は、決定された寸法を埋め込まれる人工装具の取得された寸法と比較して(14906)、解剖学的構造が適切に準備されたかどうかを決定してよい(14908)。例えば、MRシステム212は、決定された寸法と埋め込まれる人工装具の寸法の差が閾値未満の場合、解剖学的構造は適切に準備されたと判断してよい。同様に、MRシステム212は、決定された寸法と埋め込まれる人工装具の寸法の差が閾値より大きい場合、解剖学的構造は適切に準備されていないと判断してよい。一例として、決定された寸法と埋め込まれる人工装具の寸法の差が閾値未満の場合、MRシステム212は、関節窩5102が(例えば、人工装具を受け入れるために)適切に準備されたと判断してよい。同様に、決定された寸法と埋め込まれる人工装具の寸法の差が閾値より大きい場合、MRシステム212は、関節窩5102は適切に準備されていないと判断してよい。
MRシステム212は、人工装具とも呼ばれるインプラントを受け入れるために関節窩5102が適切に準備されているかどうかを示すものを出力してよい(14910/14912)。一例として、MRシステム212は、関節窩5102は人工装具を受け入れる適切な準備がされたというグラフィック表示が出力されてよい。別の例として、MRシステム212は、関節窩5102は人工装具を受け入れる適切な準備がされたという触覚または可聴の指示を(例えば、知覚デバイス526を介して)出力してよい。MRシステム212が関節窩5102は適切に準備されていないと判断する状況では、MRシステム212は、関節窩5102を適切に準備するために、外科医が追加の作業を行うための仮想ガイダンスを提供してよい。
上記MR支援検証技術は、例えば、様々な関節修復手術のいずれかで、任意のタイプの解剖学的構造に対して支援されてよい。一例として、上記のように、MR支援検証技術を使用して、関節窩が適切に準備されたかどうかを判断してよい。別の例として、MR支援検証技術を使用して、上腕骨が適切に準備されたかどうかを判断してよい。別の例として、MR支援検証技術を使用して、脛骨が適切に準備されたかどうかを判断してよい。別の例として、MR支援検証技術を使用して、距骨が適切に準備されたかどうかを判断してよい。別の例として、MR支援検証技術を使用して、大腿骨が適切に準備されたかどうかを判断してよい。
図63は、本開示の1つまたは複数の技術による、関節窩にインプラントを取り付けるための仮想ガイダンスを提供するMRシステムを示す概念図である。ツールを使用して、インプラント(例えば、ペグ固定インプラント、キール固定インプラント、または任意の他のタイプのインプラント)を関節窩5102に取り付けてよい。例えば、外科医は、インパクタ6302を利用して、プロテーゼ6300を準備した関節窩5102に挿入してよい。いくつかの例では、1つまたは複数の接着剤(例えば、膠、セメント等)を、打ち込みの前にプロテーゼ6300及び/または関節窩5102に適用してよい。
いくつかの例では、1つまたは複数の締め具を使用して、プロテーゼを関節窩5102に取り付けてよい。例えば、図64及び図65に示すように、ネジ6400A~6400D(集合的に、「ネジ6400」)及び中心ステム6402を使用して、プロテーゼ6300を関節窩5102に取り付けてよい。プロテーゼに含まれる任意の固定具(例えば、ペグ、キール等)に加えて、または、その代わりに、これらの締め具を使用してよい。
MRシステム212は、追加の締め具の取付を容易にする仮想ガイダンスを提供してよい。例えば、図65に示すように、MRシステム212は、「仮想ネジ軸」と呼ばれてよい仮想軸6500A~6500D(集合的に、「仮想軸6500」)を表示して、ネジ6400の(例えば、関節窩5102への)取付において外科医をガイドしてよい。ネジ6400が「セルフタッピング」である例では、MRシステム212は、ネジ6400の挿入をガイドする仮想ガイダンス(例えば、仮想軸)を表示してよい。例えば、MRシステム212は、関節窩へのネジの挿入をガイドする仮想手術計画から取得されたパラメータ(例えば、肩甲骨の仮想モデルに対する位置、サイズ及び/または向き)を有する仮想ネジ軸を表示してよい。ネジ6400が「セルフタッピング」でない例では、MRシステム212は、ネジ6400のためのパイロット穴をドリルで開けることをガイドする仮想ガイダンス(例えば、仮想軸)を表示してよい。例えば、MRシステム212は、(例えば、ネジ6400のネジのための)1つまたは複数の穴(例えば、1つまたは複数のパイロット穴及び/または1つまたは複数のばか穴)を関節窩にドリルで開けることをガイドするパラメータ(例えば、肩甲骨の仮想モデルに対する位置、サイズ及び/または向き)を有する仮想ドリル軸を表示してよい。
締め具を取り付けるための仮想ガイドを表示するために、MRシステム212は、プロテーゼの仮想モデルを実際の観察されるプロテーゼに位置合わせしてよい。例えば、MRシステム212は、プロテーゼ6300の仮想モデルを仮想手術計画から取得してよく、図17~図20を参照して前述した位置合わせプロセスと類似の方法で位置合わせを行ってよい。
MRシステム212は、取り付ける各締め具の箇所を取得してよい。例えば、MRシステム212は、各締め具について、プロテーゼの仮想モデルの座標とベクトルとを仮想手術計画から取得してよい。いくつかの例では、MRシステム212は、各締め具の座標がプロテーゼの対応する穴のセントロイドであると判断してよい。例えば、MRシステム212は、ネジ6400Aの座標は穴6502のセントロイドであると判断してよい。
外科医は、表示された仮想ガイダンスを使用して締め具を取り付けてよい。例えば、外科医は、ネジ回しまたは他の器具を使用してネジ6400を取り付けてよい。
MRシステム212は、締め具の取付を支援する仮想ガイダンスを表示してよい。一例として、MRシステム212は、深さガイダンスを提供してよい。例えば、MRシステム212は、外科医がネジ6400のそれぞれを目標深さまで取り付けるのを可能にする深さガイダンスを表示してよい。別の例として、MRシステム212は、ターゲッティングガイダンスを提供してよい。例えば、MRシステム212は、ネジ6400のそれぞれが規定の軸上に取り付けられているかどうかを示すものを表示してよい。別の例として、MRシステム212は、ネジ6400を締める順番に関するガイダンスを提供してよい。例えば、MRシステム212は、ネジ6400の締めるべき特定のネジ上に仮想マーカを表示してよい。
上記のように、MRシステム212は、多種多様な仮想ガイダンスを提供してよい。MRシステム212が提供し得る仮想ガイダンスの例は、ターゲッティングガイダンス及び深さガイダンスを含むが、これらに限らない。MRシステム212は、特定の軸に沿って作業(例えば、ドリルで穴を開けること、リーミング、ネジの取付等)を行う時に外科医を支援するターゲッティングガイダンスを提供してよい。MRシステム212は、所望の深さまで作業(例えば、ドリルで穴を開けること、リーミング、ネジの取付等)を行う時に外科医を支援する深さガイダンスを提供してよい。
図66は、本開示の1つまたは複数の技術による、MRシステムによって提供され得る仮想ガイダンスの概念図である。図66に示すように、外科医は、可視化デバイス213を通して肩甲骨5100の一部を見てよい。
上記のように、いくつかの例では、外科医は、1つまたは複数のツールを利用して、患者の解剖学的構造の一部(例えば、肩甲骨5100、上腕骨3200等)に対する作業を行ってよい。例えば、外科医は、ガイド5200を取り付け、リーミングツール5300を操作し、ドリルビット5400を操作し、及び/またはネジ6400を取り付けるために、ドリル6600等のドリルを利用してよい。しかしながら、図66に示すように、ドリル6600は、外科医が作業を行っている肩甲骨5100の少なくとも一部分を妨害し得る。
本開示の1つまたは複数の技術によると、MRシステム212は、外科医が肩甲骨5100の一部(または、上腕骨3200)に対して行っている作業のためのグラフィックターゲッティングガイダンス6602及びグラフィックによる深さガイダンス6604を外科医に提供する可視化デバイス213を利用してよい。例えば、グラフィックターゲッティングガイダンス6602を表示するために、MRシステム212は、使用しているツール(例えば、ドリル6600またはドリルに取り付けられているビット/器具)の現在の向きと、目標の向き(例えば、仮想手術計画を介して取得される目標ベクトル)とを決定してよい。MRシステム212は、使用しているツールの現在の向きを任意の数の技術を使用して決定してよい。一例として、MRシステム212は、ツールに取り付けられた1つまたは複数のセンサ(例えば、加速度計、ジャイロスコープ等)から受信した向きデータに基づいて、使用しているツールの現在の向きを決定してよい。別の例として、MRシステム212は、可視化デバイス213の1つまたは複数のセンサ(例えば、光学カメラ530、デプスカメラ532等)によってキャプチャされたデータに基づいて、使用しているツールの現在の向きを決定してよい。
いくつかの例では、MRシステム212は、(外科医の視点に加えて)1つまたは複数の視点のグラフィック表現としてグラフィックターゲッティングガイダンス6602を表示してよい。グラフィック表現は、合成されたビューと呼ばれてよい。例えば、図66に示すように、MRシステム212は、矢印6606によって示される視点からの側面図のグラフィック表現と、矢印6606によって示される視点からの上面図のグラフィック表現とを表示してよい。側面図は、左側面図または右側面図であってよい。同様に、上面図は、底面図であってよい。いくつかの例では、上面図/底面図/左側面図/右側面図の表示は、外科医によって選択可能であってよい。追加でまたは代替的に、MRシステム212は、手術を患者の左側に行っているかまたは右側に行っているかに基づいて、どのビューを表示するか自動的に選択(例えば、デフォルトビューを選択)してよい。
図66において、追加の視点のグラフィック表現は、使用しているツール(例えば、ドリル6600またはドリルに取り付けられているビット/器具)の現在の向きと目標の向き(例えば、目標ベクトル)との間の相対的角度差を示す。MRシステム212が表示し得る他のグラフィック表現は、十字線、数値(例えば、相対的角度差の数値)、記号表現(例えば、チェックマーク/X、色シェーディング等)、または、使用しているツールの現在の向きと骨(例えば、肩甲骨の関節窩、上腕骨、または任意の他の骨)上の目標位置に延びる目標ベクトルの間の関係の任意の他のグラフィック表現を含むが、これらに限らない。MRシステム212は他の仮想ガイダンスに加えて、または仮想ガイダンスの代わりに追加の視点を表示してよいことは理解されたい。例えば、MRシステム212は、追加の視点と、仮想軸/切断面を同時に表示してよい。
例えば、グラフィックによる深さガイダンス6604を表示するために、MRシステム212は、使用しているツール(例えば、ドリル6600またはドリルに取り付けられているビット/器具)の現在深さと、目標深さ(例えば、仮想手術計画を介して取得される目標深さ)とを決定してよい。MRシステム212は、任意の数の技術を使用して、使用しているツールの現在深さを決定してよい。一例として、MRシステム212は、ツールに取り付けられた1つまたは複数のセンサ(例えば、加速度計、ジャイロスコープ等)から受信した向きデータに基づいて、使用しているツールの現在深さを決定してよい。別の例として、MRシステム212は、可視化デバイス213の1つまたは複数のセンサ(例えば、光学カメラ530、デプスカメラ532等)によってキャプチャされたデータに基づいて、使用しているツールの現在深さを決定してよい。別の例として、MRシステム212は、図73~図79を参照して本明細書に記載のように、ツールの現在深さを決定してよい。
MRシステム212は、グラフィックによる深さガイダンス6604を現在深さと目標深さの間の関係のグラフィック表現として表示してよい。図66においては、現在深さと目標深さの間の関係のグラフィック表現は、(この例では、白丸として示される)開始深さから(この例では、黒丸で示される)目標深さに進む矢印として示される。MRシステム212によって表示され得る他のグラフィック表現は、数値(例えば、残りの深さの数値、現在深さの数値、及び目標深さの数値等)、記号表現(例えば、目標深さに達した時のチェックマーク、色シェーディング等)、または現在深さと目標深さの間の関係の任意の他のグラフィック表現を含むが、これらに限らない。
本明細書に記載するように、MRシステム212の可視化デバイス213は、外科医が患者の解剖学的構造を見ているレンズ上に仮想ガイダンスを表示してよい。従って、いくつかの例では、仮想ガイダンスは、複合現実(MR)ガイダンスと見なされてよい。
MRシステム212は、グラフィックガイダンス(ターゲッティング及び/または深さ)に加えて、または、その代わりに他の形態のガイダンスを出力してよい。例えば、MRシステム212は、ターゲッティング及び深さの一方または両方に対して可聴及び/または触覚ガイダンスを出力してよい。一例として、MRシステム212は、目標深さに達した時、現在使用しているツール及び/または可視化デバイス213の一方または両方を振動させることによって、触覚深さガイダンスを出力してよい。別の例として、MRシステム212は、現在使用しているツールの向きが閾値量を超えて目標の向きから逸脱した時、ツール及び/または可視化デバイス213の一方または両方を振動させることによって、触覚ターゲッティングガイダンスを出力してよい。
別の例として、MRシステム212は、可視化デバイス213に現在深さと目標深さの差の可聴表現を出力させることによって、可聴深さガイダンスを出力してよい。例えば、可視化デバイス213は、目標深さに近付くと音量が上がり、目標深さに達すると、周波数が変わるトーンを出力してよい。別の例として、MRシステム212は、ツールの向きが目標の向きから閾値量を超えて逸脱する時を示す音声を可視化デバイス213に出力させることによって、可聴ターゲッティングガイダンスを出力してよい。
例えば、可視化デバイス213は、ツールが目標の向きから左に逸脱していると判断することに応答して、外科医の左耳にトーンを、また、ツールが目標の向きから右に逸脱していると判断することに応答して、外科医の右耳にトーンを出力してよい。同様に、可視化デバイス213は、ツールが目標の向きから上に逸脱していると判断することに応答して、上にあると外科医が認識できるトーンを、また、ツールが目標の向きから下に逸脱していると判断することに応答して、下にあると外科医が認識できるトーンを出力してよい。
いくつかの例では、可視化デバイス213は、(例えば、知覚デバイス526の1つまたは複数を介して)3次元音声を使用して可聴ターゲッティングガイダンスを出力してよい。例えば、可視化デバイス213は、ツールが対応する方向に逸脱していると判断することに応答して、外科医の正面/左側/右側/後ろ/上/下にあると認識されるトーンを出力してよい。
ある特定の視角及び向きからのものとして示しているが、本明細書に記載の仮想ガイダンスは、任意のビュー角度及び向きから表示されてよいことに注意されたい。例えば、可視化デバイス213のユーザが頭を動かす及び/または患者の解剖学的構造のまわりを移動しても、観察される解剖学的物体に対する仮想ガイドの相対的位置(例えば、軸、点、表面等)は、維持されてよい。
上記のように、MRシステム212は、患者の解剖学的構造の仮想モデルを対応する観察される解剖学的構造に位置合わせしてよい。一例として、MRシステム212は、患者の関節窩の仮想モデルを可視化デバイス213の1つまたは複数のセンサによって観察される患者の実際の関節窩に位置合わせしてよい。別の例として、MRシステム212は、患者の上腕骨の仮想モデルを可視化デバイス213の1つまたは複数のセンサによって観察される患者の実際の上腕骨に位置合わせしてよい。
いくつかの例では、最初の位置合わせで、解剖学的構造の特定の構造に対して行われる全ての作業ステップに対して仮想ガイダンスを提供するMRシステム212をサポートするのに十分な場合がある。例えば、患者の関節窩の仮想モデルを可視化デバイス213の1つまたは複数のセンサによって観察される患者の実際の関節窩に最初の位置合わせを行うと、MRシステム212が、関節窩に対して行われる全ての作業ステップ(例えば、ガイドピンの取付、リーミング、固定点の作成等)に仮想ガイダンスを提供するのを可能にするのに十分であってよい。
しかしながら、いくつかの例では、MRシステム212は、追加の位置合わせを行ってよい。例えば、特定の作業ステップをある解剖学的構造に対して行った後、MRシステム212は、行われた作業ステップを考慮に入れてその解剖学的構造の仮想モデル(例えば、計画した作業を組み込んだ追加の仮想モデル)を再位置合わせしてよい。一例として、外科医が患者の関節窩をリーミングした後、MRシステム212は、計画したリーミングを含む関節窩の次の仮想モデルを取得してよく、次の仮想モデルを観察されるリーミングされた関節窩へ、図17~図20を参照して前述した位置合わせプロセスと類似の方法で位置合わせしてよい。
いくつかの例では、MRシステム212は、外科医がワークフローのステップをどのように行うべきかの指示を提供するように構成されてよい。例えば、ユーザ入力(例えば、音声コマンド、ジェスチャ等)に応答して、MRシステム212は、特定のステップ(複数可)をどのように行うべきかを説明するアニメーション、ビデオまたはテキストを表示してよい。指示は一般的であってよい、または、患者に固有であってよい。
上記のように、MRシステム212は、患者に作業を行うための仮想ガイダンスを提供してよい。例えば、可視化デバイス213は、可視化デバイス213を使用する外科医に仮想ガイダンスを表示してよい。さらに、本明細書に記載するように、他の個人が可視化デバイスを使用してよい。MRシステム212は、それぞれの可視化デバイスを使用する複数の個人に仮想ガイダンスを提供してよい。仮想ガイダンスは、全ての個人に対して同じであってもよく、異なってもよい。例えば、MRシステム212は、異なる個人に対して、手術室でのその個人の役割に合わせた異なる仮想ガイダンスを提供してよい。
説明目的で、幾つかの図面は、手術中に実際に見える患者の解剖学的構造より多く(例えば、組織によって隠れている部分)を示している。例えば、図34は、手術中に実際に見えるより多くの上腕骨3200の部分を示し、図51は、手術中に実際に見えるより多くの肩甲骨5100の部分を示す。
上記のように、いくつかの例では、MRシステム212は、患者の解剖学的構造の観察される部分に重ね合わされた患者の解剖学的構造の一部の仮想モデルを表示してよい。例えば、位置合わせ手順中、可視化デバイス213は、患者の実際の関節窩に重ね合わされた患者の関節窩の3D仮想モデルを表示してよい。3D仮想モデルは、例えば、現実世界環境内に実際の関節窩と共に存在するように見えてよい。いくつかの例では、MRシステム212は、位置合わせプロセス中、仮想モデルのみを表示してよい。他の例では、MRシステム212は、手術の他の部分の間、仮想モデルを表示してよい。例えば、MRシステム212は、外科医が患者の解剖学的構造の実際の部分に作業(例えば、切断、ドリル、リーミング、プロテーゼ取付、トライアル等)を行っている間、患者の解剖学的構造の一部の仮想モデルを患者の解剖学的構造の実際の部分に重ね合わせて表示してよい。
いくつかの例では、MRシステム212は、仮想モデルが患者の解剖学的構造の対応する部分を覆い隠すように、仮想モデルを表示してよい。いくつかの例では、MRシステム212は、仮想モデルが患者の解剖学的構造の対応する部分を完全には覆い隠さないように仮想モデルを表示(例えば、患者の解剖学的構造の対応する部分に仮想モデルの少なくとも一部が重ね合わされて表示)してよい。一例として、MRシステム212は、患者の解剖学的構造の実際の部分上の対象領域(例えば、患者の解剖学的構造の作業を行うべき箇所)が仮想モデルによって覆い隠されないように(少なくとも全体的には覆い隠されないように)、仮想モデルを表示してよい。例えば、MRシステム212は、(例えば、患者の解剖学的構造の実際の部分上の対象領域に対応する)仮想ガイドによって示される解剖学的構造上の箇所が表示された仮想モデルによって完全には覆い隠されないように仮想モデルを表示してよい。例えば、MRシステム212は、「穴」またはガイドピンを取り付ける領域を囲む欠損領域を有する関節窩の仮想モデルを表示してよい。「穴」または欠損領域は、仮想モデルの仮想穴と呼ばれてよい。別の例として、MRシステム212は、仮想モデルの輪郭線を表示してよい。
図69及び図70は、対象領域を囲む欠損領域を有する例示の仮想モデルを示す概念図である。図51と同様、図69及び図70は、ガイドピンを取り付ける時に外科医を支援する仮想ガイダンスの他の例である。図69及び図70に示すように、MRシステム212は、仮想軸5104等の仮想ガイドを含む領域(すなわち、仮想ガイドが示す解剖学的構造上の箇所に対応する領域)を囲む仮想穴6900を含むように、仮想骨モデル1008を表示してよい。図から分かるように、仮想骨モデル1008の少なくとも一部は依然として表示されているが、関節窩5102の一部が、仮想穴6900を含めることによって、仮想骨モデル1008によって覆い隠されている。
いくつかの例では、仮想穴は、はっきりした境界を有してよい。いくつかの例では、MRシステム212は、仮想ガイドが示す解剖学的構造上の箇所に近付くにつれて(例えば、不透明度が)薄くなるように仮想モデルを表示してよい。例えば、MRシステム212は、特定の不透明度で仮想モデルの外周を表示してよく、解剖学的構造上の箇所の方向で不透明度を低減して(例えば、仮想モデルがフェードアウトして)よい。
図71は、対象領域を囲む欠損領域を有する例示の仮想モデルを示す概念図である。図57と同様に、図71は、外科医が固定点を作成するのを支援する仮想ガイダンスの別の例である。図71に示すように、MRシステム212は、関節窩5102の周囲の外周として仮想骨モデル1008を表示してよい。図から分かるように、仮想骨モデル1008の少なくとも一部分は依然として表示されているが、関節窩5102の一部を仮想骨モデル1008で覆い隠されている。
仮想モデルに仮想穴を提示することによって、骨表面等の実際の現実の解剖学的表面のより良いビューを外科医に提供してよく、外科医が人工インプラントを受けるために表面を準備する作業、または、人工インプラントを表面上に配置するための作業を行う時、表面の可視性を高める。作業が行われている間、仮想モデルの少なくとも一部の表示を維持することは、1つまたは複数の長所を提供し得る。例えば、仮想ガイダンスの支援を伴って作業を行っている間、仮想モデルの少なくとも一部(例えば、外周、輪郭線、穴を有する仮想モデル等)を表示すると、外科医は、MRシステム212が仮想ガイダンスを適切な箇所(複数可)に表示していることを確信することができる。詳細には、外科医は、仮想モデルの表示された部分が観察される解剖学的構造と適切に整列し、仮想ガイダンスが仮想モデルの位置に基づいて表示されるのを見ることができるようになるので、外科医は、MRシステム212が適切な位置に(複数可)仮想ガイダンスを表示していることを確信するであろう。
上記のように、いくつかの例では、外科医は、1つまたは複数のツールを利用して、患者の解剖学的構造の一部(例えば、肩甲骨5100、上腕骨3200等)に対して作業を行ってよい。例えば、外科医は、ガイド5200を取り付けるために、リーミングツール5300を操作するために、ドリルビット5400を操作するために、及び/またはネジ6400を取り付けるために、ドリル6600等のドリルを利用してよい。このようなツールは、例えば、手動のボタン、トリガまたはスイッチによって電源を入れられてよく、制御可能であってよい。これも前述したように、いくつかの例では、MRシステム212は、作業の実行を支援する仮想ガイダンスを提供してよい。例えば、MRシステム212は、ターゲッティングガイダンス、深さガイダンス等を提供してよい。
本開示の1つまたは複数の技術によると、MRシステムは、作業を行うために使用される1つまたは複数のツールの動作を積極的に制御するように構成されてよい。例えば、MRシステム212は、ドリルが正確に仮想軸上に位置するかどうかに基づいて、ドリル6600等のドリルの動作を選択的に調整してよい。動作の調整は、ツールの電源を入れること、ツールの電源を切ること、外科医が手動でツールに電源を入れるのを可能にすること、外科医が手動でツールの電源を切るのを不可能にすること、及び/またはツールの、回転スピード、トルクまたは力等、スピード、トルクもしくは力を制御することを含んでよい。このように、MRシステム212は、1つまたは複数のツールに対して閉ループ制御を行ってよい。いくつかの例では、閉ループ制御は、ツールもしくはツールの一部の所定の軸、位置、角度等に対するモニタリングによる位置決めの機能であってよく、それらは、いくつかの例では、仮想ガイダンスの表示によって外科医に対して視覚的にも示され得る。
図72は、本開示の1つまたは複数の技術による、手術における閉ループのツール制御の例示の技術を示すフロー図である。動作において、MRシステム212は、ツールを用いて患者の解剖学的構造の一部に行う修正のパラメータの目標値を仮想手術計画から取得してよい(7200)。パラメータの例は、ドリルで穴を開ける箇所、深さ(例えば、ドリル深さ、リーミング深さ等)、切断面の箇所等を含む。1つの具体的な例として、MRシステム212は、ガイドピンを取り付ける関節窩の箇所(例えば、図51にMRシステム212が仮想軸5104を表示するとして記載されている関節窩5102の箇所)を取得してよい。別の具体的な例としては、MRシステム212は、関節窩をリーミングする深さを決定してよい。
MRシステム212は、パラメータの現在値を取得してよい(7202)。一例として、MRシステム212は、ツールに取り付けられた1つまたは複数のセンサ(例えば、加速度計、ジャイロスコープ等)から受信した向きデータに基づいて、使用しているツールの現在の箇所/深さを決定してよい。例えば、MRシステム212は、ツールに取り付けられた加速度計によって測定されるデータに基づいて、ツールの現在の向きを決定してよい。別の例として、MRシステム212は、可視化デバイス213の1つまたは複数のセンサ(例えば、光学カメラ530、デプスカメラ532等)によってキャプチャされたデータに基づいて、使用しているツールの現在の箇所/深さを決定してよい。例えば、MRシステム212は、観察されるツールにツールの仮想モデルを位置合わせしてよい。別の例として、MRシステム212は、図73~図79を参照して本明細書に記載するように、ツールの現在の箇所/深さを決定してよい。
MRシステム212は、パラメータの現在値とパラメータの目標値を比較してよい(7204)。一例として、MRシステム212は、ツールの現在の向き/軸とターゲット軸との差を決定してよい。いくつかの例では、ターゲット軸は、外科医が見るためにMRシステム212によって表示される仮想ガイダンス軸によって示されて、例えば、外科医がツール(例えば、ドリルビットリーミングシャフト等)を手術計画で規定された軸に整列させるのを支援してよい。同様に、仮想配置マーカ、角度表示、もしくは深さ表示等の他の仮想ガイダンス、及び/または他の仮想ガイダンスが、ツールのパラメータの検出及び修正中、仮想ガイダンスとして表示されてよい。他の例では、ツールのパラメータ(複数可)は、例えば、MRシステム212によって制御されてよく、パラメータは、仮想ガイダンス軸、仮想配置マーカ、仮想角度表示、仮想深さ表示、及び/または他の仮想ガイダンスを表示することなしにモニタリングされてよい。例えば、MRシステム212は、ツールの現在の向き/軸がターゲット軸から5度離れていることを判断してよい(例えば、MRシステム212は、(ツールに取り付けられた加速度計が測定したデータに基づいて決定される)ツールの現在の向きと所定の軸との差が5度であることを決定してよい)。別の例として、MRシステム212は、ツールの現在深さと目標深さとの差を決定してよい。例えば、現在深さが最初のドリル表面から、例えば3mmであり、目標深さが7mmの場合、MRシステム212は、現在深さが目標深さより4mm短いと決定してよい。
MRシステム212は、比較に基づいてツールの状態を自動的及び選択的に調整してよい(7206)。一例として、MRシステム212は、比較に基づいてツールの動作をゲート制御してよい。例えば、MRシステム212は、目標値と現在値の差が閾値未満の場合、ツールの動作を可能にしてよい。例えば、MRシステム212は、ツールを作動させてよい、または、外科医が手動でツールを作動させることができるように電源を有効にしてよい。同様に、MRシステム212は、目標値と現在値の差が閾値を超える場合、ツールの動作を防いでよい。例えば、MRシステム212は、ツールを停止してよい、または、外科医が手動でツールを作動させることができないように電源を停止してよい。別の例として、MRシステム212は、比較に基づいて、スピード、トルク、力または別の動作パラメータをスロットル調整してよい、または、別の方法でツールの動作を制限してよい。例えば、MRシステム212は、目標値と現在値の差が閾値未満の場合、ツールの動作を全出力にしてよい。同様に、MRシステム212は、目標値と現在値の差が閾値を超える場合、ツールの動作出力(例えば、回転スピード、トルク出力等)を低下させてよい。例えば、MRシステム212は、目標値と現在値の差の関数によって動作出力を低下させてよい。
MRシステム212は、ツールの状態を自動的及び選択的に調整するとして記載されるが、ツールの実際の作動/停止は、外科医によって手動で行われてよい。例えば、MRシステム212がツールの動作を可能にしている場合、ツールは、外科医がトリガを引く、または、ボタンもしくはツールの他の制御入力、例えば、ツールのドリルモータのトリガもしくはボタンを作動させるまで、実際には作動しない。さらに、いくつかの例では、MRシステム212及び/またはツールは、MRシステム212が現在、ツールの動作を可能にしているかどうかに関わらず、外科医がツールを作動させるのを可能にするオーバーライドを含んでよい。
MRシステム212及びツールは、任意の適切な方法を用いて通信してよい。有線及び無線の両方の通信リンクが企図される。例えば、MRシステム212及びツールは、ブルートゥースリンク、(例えば、IEEE802.11規格のいずれかに従った)Wi-Fiリンクリンク、有線シリアル接続(例えば、RS-232またはUSB)、3G、4Gもしくは5G、または任意の他の適切な通信リンクを介して、通信してよい。
MRシステム212は、通信リンクまたは任意の他の技術を介してツールに対する積極的な制御を行ってよい。一例として、MRシステム212は、通信リンクを介して、ツールの動作がゲート制御されているか、スロットル調整されているかを示すデータをツールに出力してよい。別の例として、MRシステム212は、ツールの動作がゲート制御またはスロットル調整されている時、MRシステム212は、ツールが電力を受け取らない(または、受け取る電力量を調整する)ようにツールの電源を制御してよい。例えば、ツールは、「スマートプラグ」を介して電力を供給されてよく、MRシステム212は、ツールの動作がゲート制御またはスロットル調整されている時、スマートプラグの作動を制御してよい。さらに、ツールの作動、停止、または他の調整された状態は、例えば、音声で、または拡張現実(AR)もしくはMRシステム212によって表示されたMRコンテンツを介して視覚的に外科医に通信されてよい。
ツールは、外科医が使用可能な任意のタイプのツールであってよい。ツールの例は、ドリル、鋸、レーザ、及び手術中に使用される任意の他のタイプのツールを含むが、これらに限らない。このようなツールは、手動で外科医によって駆動、または、回転もしくは往復モータまたは振動モータ等のモータ、圧電発電機等によって動力を供給されてよい。ツールは、ツールの位置/向き/箇所がツールを移動及び/または回転させることによって外科医によって制御可能であるという点で、手動で誘導可能であると見なされてよい。従って、いくつかの例では、ツールは、例えば、ドリルモータとドリルビット等の加工ビット、リーミング要素、または他の加工要素を有するシャフトを受けるチャックもしくは他のインタフェースとを有するハンドヘルドドリル等のハンドヘルドツールであると見なされてよい。
ツールの積極的な制御は、本開示の任意の他の技術と併用して使用されてよい。例えば、MRシステム212は、上記のように視覚的グラフィックガイダンスと積極的ツール制御の両方を提供してよい。1つの具体的な例として、MRシステム212は、MRシステム212は閉ループのツール制御を行っているのと同時に、図66を参照して前述した視覚的グラフィックガイダンスを提供してよい。
図67は、本開示の1つまたは複数の技術による、MRシステムによって提供されてよく、二次ビューウィンドウを提供する例示のビュー6700の概念図である。図67の例は、整形外科の肩の手術中、MR可視化デバイス(例えば、可視化デバイス213)を使用しながら、外科医に見えるものを示す。詳細には、図67の例では、外科医は、肩甲骨5100の露出部分と、肩甲骨5100の露出部分を囲む組織6702の領域とを見てよい。
図66を参照して前述したように、外科医は、1つまたは複数のツールを使用して、患者の解剖学的構造の一部(例えば、肩甲骨5100、上腕骨3200等)に対して作業を行ってよい。例えば、外科医は、ガイド5200を取り付けるために、リーミングツール5300を操作するために、ドリルビット5400を操作するために、及び/またはネジ6400を取り付けるために、ドリル6600等のドリルを使用してよい。しかしながら、図67に示すように、ドリル6600は、外科医が作業を行っている肩甲骨5100の部分の少なくとも一部を覆い隠す場合がある。さらに、ドリル6600のビット等のツールがどのくらい深く組織または骨に侵入したかを外科医が評価することは難しい場合がある。これは、外科医がドリル6600等のドリルの長さを見下ろしている時、特に難しい。
よって、本開示の1つまたは複数の技術によると、MRシステム212の可視化デバイス213は、二次ビューウィンドウ6704を含むMR可視化を生成してよく、二次ビューウィンドウ6704は、メインウィンドウの他の仮想ガイダンス等、任意のコンテンツに重ね合わされた、または、任意のコンテンツと共に構成されたサブウィンドウであってよい。二次ビューウィンドウ6704は、他の仮想ガイダンス(例えば、仮想マーカ、深さガイダンス等)と共に、外科医の視野に物理的な現実世界の物体と共に現れてよい。従って、図67の例では、外科医は、肩甲骨5100の露出部分、組織6702、及びドリル6600と、仮想軸または仮想進入点等の任意の仮想ガイダンスと共に、二次ビューウィンドウ6704を見てよい。いくつかの例では、外科医または他のユーザは、二次ビューウィンドウ6704のサイズを変更または位置を変更してよい。
二次ビューウィンドウ6704は、手術部位の異なる視点を表す画像を含む。例えば、図67の例では、手術部位は、患者の関節窩であり、外科医は、患者の肩甲骨5100の露出された関節窩部分にドリルで穴を開けている。さらに、図67の例では、外科医の視点は、実質的にドリル6600の軸方向で見下げるものである。患者に対して、図67の外科医の視点は、患者の正面軸である。従って、図67の例では、二次ビューウィンドウ6704は、ドリル6600の軸で見下げる以外の視点からの患者の肩甲骨の関節窩部分を表す画像を含む。すなわち、図67の例では、二次ビューウィンドウ6704の画像は、患者のいずれの正面軸でもない。むしろ、図67の例では、二次ビューウィンドウ6704に提示された画像は、外科医の視点から90度回転した視点からである。例えば、患者に対して、二次ビューウィンドウ6704に提示された画像は、矢状軸にあってよい。
外科医は、二次ビューウィンドウ6704を使用して、ツールを侵入させた深さをチェックしてよい。例えば、図67の例では、外科医は、二次ビューウィンドウ6704を使用して、ドリル6600のビットがどの程度まで肩甲骨5100に侵入したかを判断してよい。
二次ビューウィンドウ6704に提示された画像は、様々な方法で生成されてよい。例えば、一例では、二次ビューウィンドウ6704に提示された画像は、ビデオカメラでキャプチャされてよい。一部のこのような例では、ビデオカメラは、看護師等、外科医以外の人によって着用または手に持たれてよい。例えば、ビデオカメラは、看護師が着用する可視化デバイス(例えば、MRシステム1800Bの可視化デバイス(図18)に取り付けられていてよい。いくつかの例では、ビデオカメラは、固定された壁、メカニカルアーム、ロボット、または他の物理的物体上に固定されていてよい。
他の例では、二次ビューウィンドウ6704に提示された画像は、仮想物体を含んでよい、または、仮想物体からなってよい。例えば、二次ビューウィンドウ6704に提示された画像は、患者の解剖学的構造の仮想3次元モデルを含んでよい。さらに、二次ビューウィンドウ6704に提示された画像は、外科医が使用しているツールの仮想3次元モデルを含んでよい。従って、図67の例では、二次ビューウィンドウ6704は、患者の肩甲骨5100の仮想3次元モデルとドリル6600の仮想3次元モデルとを含んでよい。患者の解剖学的構造の仮想3次元モデルは、手術の術前計画中に使用されるのと同じであってよい。さらに、いくつかの例では、二次ビューウィンドウ6704は、仮想のリーミングまたはドリル軸、仮想切断面、仮想進入点等、仮想ガイダンスを含んでよい。
二次ビューウィンドウ6704に提示された画像が仮想物体を含む、または、仮想物体からなる例では、患者の解剖学的構造は、本開示の他の箇所に記載するように、患者の解剖学的構造の対応する仮想モデルに位置合わせされてよい。例えば、患者の関節窩は、患者の関節窩の仮想モデルへ位置合わせされてよい。従って、コンピューティングシステム(例えば、MRシステム212(図2))は、患者の解剖学的構造の位置及び向きを3次元空間で決定可能であり得る。さらに、コンピューティングシステムは、コンピューティングシステムが、同じ3次元空間でツール(例えば、ドリル6600)の箇所を決定するのを可能にする情報を1つまたは複数のセンサ(例えば、カメラ、モーションセンサ等)から受信してよい。ツール上の1つまたは複数のマーカは、コンピューティングシステムがツールの箇所を識別するのを支援してよい。従って、コンピューティングシステムは、患者の解剖学的構造に対するツールの位置を決定してよい。コンピューティングシステムは、患者の解剖学的構造とツールの相対的位置に基づいて、二次ビューウィンドウ6704の画像を生成してよい。従って、図67の例では、コンピューティングシステムは、患者の肩甲骨5100とドリル6600のビットとの仮想3次元モデルの相対的位置を示す二次ビューウィンドウ6704のMR可視化を生成してよい。
患者の解剖学的構造と外科医が使用するツールとの仮想3次元モデルを提示すると、ある特定の組の問題に対処し得る。例えば、画像を二次ビューウィンドウ6704にフィードするカメラを看護師が手に持つまたは着用する例では、看護師の自然の動きによってカメラが揺れる場合があり、外科医の気が散ることがある。カメラの揺れを補正するために、コンピューティングシステムは、画像安定化を適用することが必要になり得る、これは、計算的に高価となって、電池を消耗させる可能性があり、視野が低下し得る。さらに、二次ビューウィンドウ6704の仮想3次元モデルは、このようにカメラの揺れを経験することなく、これは、本来は画像安定化に費やされる計算リソースを節約し得る、また、視野を向上させ、外科医の注意をそらすことを削減し得る。
仮想3次元モデルを使用することの他の可能性のある利点は、不要な背景情報を二次ビューウィンドウ6704から省略してよいことである。例えば、図67の例では、組織6702は、二次ビューウィンドウ6704に提示される画像から省略されてよい。不要な背景情報を省略することによって、外科医の視覚的ノイズをさらに減らし得る。さらに、外科医は、二次ビューウィンドウ6704に示す仮想3次元モデルの視点を、人間の看護師がハンドヘルドまたは頭部に着用するカメラを用いて取得するのが実現困難な角度に、回転または他の方法で変更することができ得る。従って、固定位置のビデオカメラまたはメカニカルアームに取り付けられたカメラを使用して、外科医が望む視点を達成することが必要な場合がある。仮想3次元モデルの使用によって、このようなカメラ及び取付システムに病院のリソースを消費する必要を取り除き得る。
いくつかの例では、MRシステム212は、解剖学的構造の一部の箇所と、解剖学的構造の一部に対するツールの箇所とを示したものを表示することによって、グラフィックによる深さガイダンスを表示してよい。例えば、図68に示すように、MRシステム212は、画像6802を含む二次ビューウィンドウ6704を表示してよく、画像6802は、肩甲骨5100に対するドリル6600の箇所を示す。図68に示すように、画像6802は、現在深さ6804及び目標深さ6806をさらに示してよい。上記のように、深さガイダンスは、現在深さ6804と目標深さ6806の差の数値(すなわち、「残り3mm」)を含んでよい。
MRシステム212は、解剖学的構造の一部の箇所と解剖学的構造の一部に対するツールの箇所とを任意の視点(例えば、上面図、左側面図、右側面図、上面図、底面図等)からレンダリングしてよい。図68の例では、MRシステム212は、矢印6800で示す側面図から画像をレンダリングする。
本開示の他の箇所に記載するように、コンピューティングシステム(例えば、仮想計画システム102)は、手術の情報モデルを生成してよい。手術の情報モデルは、手術を完了するために外科医が行う一連のステップを含む手術ワークフローを記載する。例えば、手術ワークフローは、図19の例に示す一連のステップを含んでよい。さらに、本開示の他の箇所に記載するように、コンピューティングシステム(例えば、術中ガイダンスシステム108(図1)、コンピューティングシステム11706(図117)等)は、外科医が手術ワークフローを進めていくと、手術ワークフローのステップに完了のマーク付けをしてよい。
本開示の技術によると、MRシステム212は、手術ワークフローの適切なステップで二次ビューウィンドウ6704を自動的に表示してよく、手術ワークフローの他のステップで二次ビューウィンドウ6704を隠してよい。例えば、MRシステム212は、外科医がドリルを使用する手術ワークフローのステップで二次ビューウィンドウ6704を表示してよく、それ以外は、二次ビューウィンドウ6704を隠してよい。さらに、いくつかの例では、仮想3次元モデルを示す時、二次ビューウィンドウ6704のデフォルト視点は、手術ワークフローのステップに関連していてよい。例えば、一例では、二次ビューウィンドウ6704は、手術ワークフローの1つのステップでは、患者の正面軸に沿ったデフォルト視点を有してよく、手術ワークフローの別のステップでは、患者の縦軸に沿ったデフォルト視点を有してよい。デフォルト視点は、ユーザが二次ビューウィンドウ6704の視点を修正する前に提示される二次ビューウィンドウ6704の視点であってよい。
本開示の別の態様は、医療処置でツールビットの深さを追跡及び提示するための複合現実(MR)ベースの技術に関する。この技術は、肩の手術、足首の手術、膝の手術、股関節手術、または任意の関節修復手術もしくは補強等の整形外科手術に特に有用であり得る。この技術は、多種多様な整形外科手術で使用可能であり得るが、解剖学的及び逆解剖学的(reverse-anatomical)肩再建手術の両方で特に有用であり得る。実際、この技術は、逆関節形成、補強使用逆関節形成、標準的な全肩関節形成、補強使用全肩関節形成、半球肩手術、または任意の他のタイプの肩の手術に役立ち得る。より詳細には、この技術は、関節窩リーミング、例えば、解剖学的肩再建手術においてインプラントを受け入れるために骨表面を調整する関節窩骨のリーミングのための複合現実(MR)ベースの技術において特に有用であり得る。
一般に、深さ追跡のために追跡されるツールビットは、ドリルビット、リーミング要素、研磨要素、または、回転シャフト上で回転するように構成された任意の要素を含む、任意のタイプの医療ツールを含んでよい。この技術は、例えば、ドリル、リーミングまたは研磨のプロセス開始時のツールビットの開始点等、固定のまたは既知の箇所に対する所望の深さまでのドリル、リーミングまたは研磨に使用されてよい。いくつかの例では、開始点は、ドリル、リーミングまたは研磨のプロセスを開始するためにユーザによって選択され得る仮想平面によって規定される。開始点規定後、深さ支援要素の軸に沿った下方への動きを使用して、ツールビットの下向きの深さを追跡することができる。
例えば、解剖学的肩再建手術について、本明細書に記載の技術及びツールは、患者の関節窩骨にリーミングを行う時にリーミングツールの深さの追跡に非常に適している場合がある。いくつかの例では、MRシステム212の可視化デバイス213等の複合現実(MR)デバイス(例えば、複合現実ヘッドセット)を使用して、本開示による1つまたは複数のデプスカメラを実施してよい。可視化デバイス213等のMRデバイスは、MRシステム212の例であってよい。例えば、MRデバイスは、ハウジング内に収容されたMRシステムであってよい。1つまたは複数のデプスカメラを備えたMRデバイスは、目標深さに対するツールビットの深さ点を検出及び追跡するように構成されてよい。いくつかの例では、MRデバイスは、開始点に対する変位を追跡することができ、これは位置合わせプロセスによって決定され得る。例えば、ドリルで穴を開けてガイドピンを挿入した後、ガイドピンのリーミング箇所にリーミング要素を配置すると、深さ追跡要素に対して位置合わせプロセスを行ってよく、その後、深さ追跡要素の深さ追跡が、リーミング要素の深さ追跡のプロキシとして使用されてよい。
ツールビットの深さ追跡は、ツールビットに関連付けられた回転軸に沿ったツールビットから固定の及び既知の距離に配置された他の要素の深さ追跡に基づいてよい。いくつかの例では、この技術は、複合現実を使用して、ツールビットと同軸で動く何かの深さを追跡する。例えば、この技術は、ツールビットに対して固定の既知の箇所にある深さ支援要素を使用してよい。あるいは、深さ支援要素を追加せずに、この技術は、医療ドリルハウジング、または医療デバイスの他の要素を追跡してよい。さらに他の例においては、この技術は、リーミング要素の裏側でもあり得るツールビットの裏側を追跡してよい。
複合現実が追跡に使用されてよく、仮想要素を医療デバイスへ位置合わせする位置合わせプロセスが行われてよい。例えば、仮想要素は、デバイスの深さ支援要素に、場合によっては、外科用ドリルの医療デバイスハウジング、または、場合によっては、ツールビットの裏側へ位置合わせされてよい。仮想要素は、デバイスの一部の形状もしくは深さ支援要素の形状に対応してよく、場合によっては、仮想要素は、ツールビットの軸に直交し、ツールビットから固定の既知の距離に位置する深さ平面を単に含んでよい。本開示は、デプスカメラを用いた深さ追跡を企図している。いくつかの場合には、デプスカメラは、MRシステム212等の複合現実システムの一部であるが、他の場合には、デプスカメラは、複合現実環境の外で動作してよい。
図73は、本開示の例に一致する医療デバイス7300の一部とデプスカメラ7314の側面概念図である。いくつかの例では、ドリル6600(図66、図67)は、医療デバイス7300の例である。医療デバイス7300は、回転シャフト7302と回転シャフト7302の遠位端にあるツールビット7304とを含む。この例では、ツールビット7304は、例えば、患者の骨にドリルで穴を開けるように設計されたドリル要素、または、例えば、患者の骨をリーミングするように設計されたリーミング要素を含んでよい。回転シャフト7302の反対側の近位端7308は、医療処置中、シャフト7302を回転させる医療用ドリルに結合される。医療用ドリルは、電動ドリルを含んでよく、電動ドリルは、トリガまたは他のユーザ入力をユーザが作動させることによって手動で制御される、または、例えば、ツールビットの検出された深さに応じて生成される制御信号等の制御信号に応答して、コントローラによって自動で制御される。医療用ドリルは、シャフト7302に結合されてシャフトを回転させる外科用モータを含んでよい。
図73に示すように、医療デバイス7300は、回転シャフト7302の軸に対して固定の箇所に位置する深さ支援要素7312を含む。深さ支援要素7312は、回転シャフト7302の軸に沿ってツールビット7304に対して固定の箇所に位置するので、ツールビット7304と軸に沿って同じ直線上で移動する。言い換えると、深さ支援要素7312は、回転シャフト7302に沿ってツールビット7304から既知の固定の距離に位置する。よって、軸に沿った深さ支援要素7312の箇所の追跡を、ツールビット7304の箇所の追跡のプロキシとして使用することができる。従って、ツールビット7304を患者の所望のツール使用箇所に配置すると、システムは深さ支援要素7312の箇所を追跡して、ツールビット7304のドリル深さをモニタリングできる。
デプスカメラ7314は、深さ支援要素7312の1つまたは複数の画像をキャプチャするように構成される。例えば、デプスカメラ7314は、互いに対して固定の既知の箇所に位置する複数のカメラからの複数の画像を使用してよく、視差計算を行って、深さ支援要素7312の深さを決定することができる。このような深さ追跡の前に、デプスカメラ7314が深さ支援要素7312へ適切に位置合わせされるように、位置合わせプロセスが行われてよい。深さ支援位置合わせプロセスに関する追加の詳細については、以下により詳細に記載される。いずれの場合でも、深さ支援要素7312の深さは、ツールビット7304の深さを決定するためのプロキシとして決定及び使用することができる。(図73に示されない)1つまたは複数のプロセッサを、回転軸に沿ったツールビット7304の深さを、デプスカメラ7314によってキャプチャされた画像の分析に基づいて、例えば、上記視差計算または他の深さ決定処理を行うことによって決定するように構成することができる。
一例として、ツールビット7304から既知の固定の距離に深さ支援要素7312を配置するために、回転シャフト7302が、第2の部分7310とは異なる直径を有する第1の部分7306を含むように構成されてよい。第1の部分7306と第2の部分7310の直径が異なることによって、深さ支援要素7312の位置を固定するための機械的な止めを作成することができる。例えば、深さ支援要素7312は、第1の部分7306の直径と類似(及び、少し大きい)サイズで、第2の部分7310より小さい穴を含んでよい。このように、深さ支援要素7312は、回転シャフト7302に沿ってツールビット7304から既知の固定の距離に留まるように適切に配置することができる。他の例では、しかしながら、多種多様な他の構造及び技術を使用して、深さ支援要素7312がツールビット7304から回転シャフト7302に沿って既知の固定の距離に固定されることを確実にしてよい。いくつかの例では、深さ支援要素7312と第2の部分7310との相互作用の物理的点に、深さ支援要素7312と第2の部分7310の間の摩擦を低減または実質的に除去するように、ボールベアリングのリングが配置されてよい。いくつか場合には、深さ支援要素7312は、回転が固定されてよく、他の場合には、深さ支援要素7312は、回転シャフト7302と共に回転してよい。
デプスカメラ7314による深さ支援要素7312の良好な深さ追跡を容易にするために、深さ支援要素7312は、1つまたは複数の球形に形作られた要素(すなわち、1つまたは複数の球形要素)及び/または1つまたは複数の円筒形に形作られた要素(すなわち、1つまたは複数の円筒形要素)を含むように設計されてよい。深さ支援要素7312のいくつかまたは全てが、球形もしくは円筒形の要素を含んでよく、または、場合によっては、複数の球形及び/または円筒形要素が、深さ支援要素7312上に含まれてよい。大幅に大型の球形要素及び/または円筒形要素は、他の形状より良好な深さ追跡を容易にし得るが、他の形状及びサイズを使用してよい。球形及び/または円筒形要素は、部分的に球形、部分的に円筒形、完全に円筒形、完全に球形であってよい。深さ支援要素にとって望ましい形状の他の例は、円錐形を含み得る。円錐形、球形及び/または円筒形は、回転シャフト7302に平行な方向に延びてよい。
また、深さ支援要素7312が良好な深さ追跡を確実に提供できるように、深さ支援要素7312が比較的大きいことが望ましい場合がある。例えば、深さ支援要素7312が深さ追跡を支援するために大型の要素にすることが有利であり得る。例えば、回転シャフト7302の直径及びツールビット7304の直径等、医療デバイス7300の他のコンポーネントより大きくするのが通常である。深さ支援要素7312の追加の詳細及び望ましい形状をより詳しく以下に記載する。
他の例では、デプスカメラ7314による深さ支援要素7312の良好な深さ追跡を容易にするために、深さ支援要素7312は、回転シャフト7302に平行な軸に垂直な面を画定する平らな表面を含むように設計されてよい。いくつかの例では、平らな表面は、深さ追跡のための良好な特徴を規定し得、いくつかの例では、平らな表面は、球形または円筒形より良好に機能し得る。いくつかの例では、深さ支援要素7312は、回転シャフト7302に平行な軸に垂直な1つまたは複数の面に、1つまたは複数の平らな表面を含んでよい。いくつかの例では、深さ支援要素7312は、1つまたは複数の円筒形及び/または1つまたは複数の球形と組み合わせて、1つまたは複数の平らな表面を含んでよい。非制限的な例として、深さ平面または深さ支援要素は、約15~30mmの範囲のサイズであってよい。
図74は、本開示の例に一致する医療デバイス7400の一部の側面概念図である。医療デバイス7400は、回転シャフト7402と回転シャフト7402の遠位端に配置されたツールビット7410とを含む。この例では、ツールビット7410は、例えば、骨を取り除き、解剖学的肩再建手術のために関節窩表面を準備するために患者の関節窩骨をリーミングするために設計されたリーミング要素を含んでよい。回転シャフト7402の反対側の近位端7408は、手術中、シャフト7402を回転させる医療用リーミングツールに結合されてよい。
図74に示すように、医療デバイス7400は、回転シャフト7402の軸に対して固定の箇所に位置する深さ支援要素7412を含む。図73と同様、図74では、深さ支援要素7412が回転シャフト7402の軸に沿ってツールビット7410に対して固定の箇所にあるので、深さ支援要素7412は、ツールビット7410と軸に沿って同じ直線上を移動する。言い換えると、深さ支援要素7412は、回転シャフト7402に沿ってツールビット7410から既知の固定の距離に位置する。よって、深さ支援要素7412の箇所を軸に沿って追跡することは、ツールビット7410の箇所の追跡のプロキシとして使用することができる。従って、ツールビット7410が、患者の所望のツール使用箇所に、例えば、関節窩リーミングの目的で患者の関節窩骨の箇所に配置すると、システムは、深さ支援要素7412の箇所を追跡して、ツールビット7410のリーミング深さをモニタリングすることができる。場合によっては、ガイドピンは、(例えば、図19のアクション1910のリーミングガイドピン挿入プロセスで)リーミングプロセスを方向付け、ガイドするために患者の関節窩骨上に取り付けられてよい。リーミング深さは、例えば、関節窩から骨が取り除かれる深さに対応し得る。
デプスカメラは、図74には示されていないが、図73と同様、そのようなデプスカメラを使用して、図73に関して前述したように、深さ支援要素7412の1つまたは複数の画像をキャプチャしてよい。1つまたは複数のプロセッサ(図73には示さず)は、デプスカメラがキャプチャした画像の分析に基づいて、回転軸に沿ったツールビット7410の深さを決定するように構成することができる。プロセッサは、例えば、本明細書に記載のMRシステム212の可視化デバイス213のマイクロプロセッサ515等、MRデバイスのプロセッサであってよい。あるいは、ネットワークによってデプスカメラに接続されたローカルもしくはリモートコンピュータ、または、いわゆる「クラウドコンピュータ」によってリモートで処理を行うことができる。
図74の例では、ツールビット7410から既知の固定の距離に深さ支援要素7412を配置するために、回転シャフト7402は、回転シャフト7402の残りの部分より大きい直径を有するストッパ7404を含むように構成されてよい。ストッパ7404は、回転シャフト7402に沿って深さ支援要素7412の位置を固定するための機械的な止めを作成する。例えば、深さ支援要素7412は、回転シャフト7402の直径と類似(及び少し大きい)サイズの穴を含む機械的接続部7406を含んでよい。ストッパ7404は、重力の支援で、またはロック機構の追加の支援(図示せず)で、深さ支援要素7412を適所に保持する。このように、深さ支援要素7412は、回転シャフト7402に沿ってツールビット7410から既知の固定の距離にとどまるように適切に配置することができる。
回転シャフト7402は、深さ支援要素7412を通して画定された穴内で自由に回転してよく、それによって、深さ支援要素7412は、回転が固定されたまま、回転シャフト7402が回転する時に回転しない。または、場合によっては、深さ支援要素7412は、シャフト7402の回転と共に回転してよい。しかしながら、深さ支援要素7412の回転は望ましくない場合があるので、シャフト7402が回転する時、深さ支援要素7412を回転させないことを確実にする追加の機械要素またはストップ(図示せず)も使用されてよい。いくつかの例では、ボールベアリングのリングまたは他のタイプの摩擦低減要素が、特に、回転シャフト7402が回転している時に深さ支援要素7412とストッパ7404の間の摩擦を低減または実質的に取り除くように、深さ支援要素7412とストッパ7404の間の相互作用の物理的点に配置されてよい。
図75は、本開示の例に一致する複合現実(MR)システムと深さ支援要素7502を含む例示のリーミングツール7500との概念斜視図である。リーミングツール7500は、回転シャフト7506によって規定される軸を中心に回転するリーミングビット7504を含んでよい。シャフト7506は、スリーブ7508内で回転してよい。深さ支援要素7502は、リーミングビット7504のリーミング表面から既知の距離に固定されるように、スリーブ7508に固定されてよい。スリーブ7508は、外科用ドリルのハウジングに接続されてよく、従って、スリーブ7508は、このような外科用ドリルのハウジングの一部と見なされてよい。深さ支援要素7502をスリーブ7508に固定することによって、深さ支援要素は、シャフト7506が回転する時、回が固定されたままであってよい。同時に、深さ支援要素7502は、リーミングプロセス中、リーミングビット7504のリーミング表面から固定距離にとどまる。
デプスカメラ7510は、深さ支援要素7502の1つまたは複数の画像をキャプチャするように構成される。例えば、上記例と同様に、デプスカメラ7510は、互いに対して固定の既知の箇所に配置された複数のカメラからの複数の画像を使用してよく、視差計算を行って、深さ支援要素7502の深さを決定することができる。このように、深さ支援要素7502の深さは、リーミングビット7504のリーミング表面の深さを決定するためのプロキシとして決定及び使用することができる。1つまたは複数のプロセッサ(図75には示されない)が、デプスカメラ7510がキャプチャした画像の分析に基づいて、視差計算を行ってシャフト7506によって規定される回転軸に沿ったリーミングビット7504のリーミング表面の深さを決定するように構成することができる。プロセッサは、例えば、本明細書に記載の可視化デバイス213のマイクロプロセッサ515等、MRデバイスのプロセッサであってよい。このようにして、患者の関節窩骨7514の表面7512をリーミングする時、リーミングビット7504の深さベースの追跡を容易にすることができる。可視化デバイス213が深さ追跡に使用されるいくつかの例では、例えば、可聴、触覚または視覚フィードバックが深さを示してよい。
オプションで、手術は、患者の関節窩7514に固定されるガイドピンであってよい機械的ジグ7516も利用してよい。機械的ジグ7516は、外科用ドリルの支援で挿入されてよく、リーミングプロセスをガイドするため、場合によっては、リーミングビット7504のリーミング深さを制御するための機械的機構を提供してよい。いくつかの例では、深さ支援要素7502は、(図75に示すように)関節窩リーミングにジグベースのアプローチで使用されてよい。他の例では、しかしながら、深さ支援要素7502は、機械的な制限ではなく、深さ検出のみに基づいた制御を選択して、ジグ7516の除去を容易にし得る。言い換えると、深さ支援要素7502の使用は、機械的ジグ7516を必要とすることなく、関節窩リーミング処置及び深さ制御を容易にし得る。
図76は、本開示の例と一致する深さ支援要素7604を含む例示のリーミングツール7602を利用する複合現実システム1051の概念斜視図である。リーミングツール7602は、回転シャフト7608によって規定される軸を中心に回転するリーミングビット7606を含んでよい。シャフト7608は、スリーブ7610内で回転してよい。深さ追跡要素7604は、リーミングビット7606のリーミング表面から既知の距離に固定されるように、スリーブ7610に固定されてよい。スリーブ7610は、外科用ドリルのハウジングに接続されてよく、従って、スリーブ7610は、このような外科用ドリルハウジングの一部であると見なされてよい。深さ支援要素7604をスリーブ7610に固定することによって、深さ支援要素は、シャフト7608が回転する時、回転が固定されたままであることができる。同時に、深さ支援要素7604は、リーミングプロセス中、リーミングビット7606のリーミング表面から固定距離に留まる。
図76に示す例は、可視化デバイス213を利用してよく、可視化デバイス213は、追加のデプスカメラを含む、外科医または他のユーザが着用する複合現実ヘッドセットまたはゴーグル等の複合現実(MR)デバイスを含んでよい。いくつかの例では、デプスカメラは、可視化デバイス213の内部部品として備えられてよく、他の例では、デプスカメラは、より良好な深さ追跡能力を提供するように、可視化デバイスの外部にあってよい。
本開示によると、可視化デバイス213のデプスカメラ532(図5)または他のデプスセンサは、深さ支援要素7604の1つまたは複数の画像をキャプチャするように構成される。例えば、本明細書に記載の他の例と同様に、デプスカメラ532は、互いに対して固定の既知の箇所に配置された複数のカメラからの複数の画像を使用してよく、視差計算を行って、深さ支援要素7604の深さを決定することができる。このように、深さ支援要素7604の深さは、リーミングビット7606のリーミング表面の深さを決定するためのプロキシとして決定及び使用することができる。可視化デバイス213のマイクロプロセッサ515(図5)は、デプスカメラ532がキャプチャした画像の分析に基づいて、シャフト7608によって規定される回転軸に沿ってリーミングビット7606のリーミング表面の深さを決定するように構成されてよい。デプスカメラ532がキャプチャした画像は、深さ情報を含んでよい。詳細には、マイクロプロセッサ515は、深さ支援要素7604の深さを決定するために、デプスカメラ532がキャプチャした画像の分析に基づいて、視差計算を行ってよい。このように、患者の関節窩7614の表面7612に対するリーミング処置を行う時に、(深さ支援要素7604の追跡による)リーミングビット7606の深さベースの追跡は、複合現実環境で容易にすることができる。可視化デバイス213が深さ追跡に使用されるいくつかの例で、例えば、可聴、触覚または視覚フィードバックが深さを示してよい。例えば、可視化デバイス213は、ユーザに対してアラートを提供または発出してよく、このようなアラートは、深さを示してよい。アラートは、グラフィック、色ベース、色変化、記号、形状もしくはサイズが変化する記号、テキスト、視覚的、可聴、触覚、または他のタイプのアラートであってよい。
さらに別の例では、医療デバイスシステムは、医療処置のためのツールビットの所望の深さに対する軸に沿ったツールビットの深さに基づいて、回転シャフトの回転を制限するように医療デバイスを自動的に制御するように構成されてよい。例えば、ドリルによる穴開け、リーミング、または医療デバイスによるツール使用は、システムがツールビットの深さが所望の深さに達したことを検出すると、自動的に停止されてよい。いくつかの例では、医療デバイスシステムは、図72に関して本開示の他の箇所に記載された閉ループ制御技術を用いて、医療デバイス、または他の医療デバイスを制御するように構成されてよい。
上記のように、手術は、患者の関節窩7614に固定された機械的ジグ7616も利用してよい。機械的ジグ7616は、ガイドピンを含んでよく、リーミングビット7616をガイドするために、オプションで、リーミングビット7616のリーミング深さを制御もしくは制限するための機械的機構を提供してよい。いくつかの例では、深さ支援要素7604が、ジグベースのアプローチと組み合わせて、(図76に示す)関節窩リーミングに使用されてよい。しかしながら、他の例では、深さ支援要素7604は、複合現実システム7600において、ジグ7616の除去も容易にし得る。言い換えると、深さ支援要素7604と、デプスカメラ532を備えた複合現実可視化デバイス213とを使用すると、機械的ジグ7616を必要とせずに、関節窩リーミング処置及び深さ制御を容易にし得る。
図77は、本開示の例に一致する例示のプロセスを示すフロー図である。図77は、図73に示すシステムの視点から記載されるが、同じ原理が、本明細書に記載の他のシステムに適用されてよい。図77に示すように、外科医は、患者内の作業箇所にツールビット7304を配置してよい(7700)。上記のように、ツールビット7304は、ドリル要素、リーミング要素、または、軸を中心に回転するように設計された多種多様なツール要素のいずれかを含み得る。実際、図77の技術は、複合現実システムの支援で、患者の関節窩骨に対して行われるリーミング処置に特に適し得る。
場合によっては、機械的ジグ(例えば、ガイドピン)が、患者の関節窩に挿入されてツールビット7304の位置決めを規定してよい。いずれの場合でも、ツールビット7304が所望の箇所、例えば、開始箇所に配置される(7700)と、回転シャフト7302の軸に沿った深さ支援要素7312の深さが、デプスカメラ7314によって記録されてよい(7702)。位置合わせプロセスは、単に、深さ支援要素7312の開始箇所を識別するプロセスであってよく、または、いくつかの例では、位置合わせプロセスは、仮想要素を深さ支援要素7312へ位置合わせするプロセスを含んでよい。ツール使用箇所でツールビット7304の開始箇所を規定した後、その開始箇所は、本明細書に記載の位置合わせプロセス等、可視化デバイス213が行う位置合わせプロセスを介して深さ支援要素7312に対しても設定または規定することができる。次に、位置合わせプロセスの後、可視化デバイス213は、ツールビット7304の深さを規定するためのプロキシとして、深さ支援要素7312の深さを追跡することができる。
位置合わせプロセス(1104)は、深さ支援要素7312に関連付けられた深さ平面を規定するように3つ以上の点を識別するプロセスであってよい。例えば、可視化デバイス213を使用するユーザは、空間の3つ以上の点を選択して、平面を規定してよく、次に、可視化デバイス213による点マッチングアルゴリズムを開始して、仮想平面として平面を規定してよい。いくつかの例では、ユーザは、ハンドジェスチャ、仮想インタフェース、注視選択、音声コマンド、または他の入力技術のうちの1つまたは複数等、様々な方法で点を選択してよい。
可視化デバイス213が、点マッチングアルゴリズムを行って平面を規定した後、可視化デバイス213は、3つ以上の識別された点を、デプスカメラを用いて追跡することによって、その平面を追跡でき得る。
図80、図81及び図82は、深さ支援要素の箇所を位置合わせする1つの例示の位置合わせプロセスを示す追加の図である。詳細には、図80は、線に沿った観察点8000が最良適合に従った線を規定できる「最良直線フィッティング」の例示の図である。d、d、d・・・dによって表され得る観察される点8000を識別すると、可視化デバイス213は、関数
Figure 0007247234000001
を最小化する線を探してよい。深さ平面を規定するために、最良直線フィッティングと類似の方法で、平面を規定する3つ以上の観察される点を識別すると、可視化デバイス213は、平面関数を最小にする平面を探してよい。
図81は、取り付けられたリーマ8102と平面8104としての深さ支援要素を有する上腕骨8100の(概略的な)シーンを示す。例示のデプスカメラ(複数可)8106も示されており、デプスカメラ8106は、いくつかの例では、可視化デバイス213の一部であるか、または可視化デバイス213と一体化されてよい。デプスカメラ(複数可)8106は、その視野内のあらゆるピクセルまでの距離を測定し、このようにして、デプスカメラ(複数可)8106は、観察されるシーンの形状を表す点群を取得することができる。
デプスカメラ(複数可)8106は、可視化デバイス213への出力として、点群を生成できる(この段階では分類は行われなくてよい)。可視化デバイス213がこの点群を有すると、可視化デバイス213は、点群の点を分類するアルゴリズムを適用することができる。説明的な例として、図82は、デプスカメラ(複数可)8106で観察することができ、可視化デバイス213で規定することができる様々な点群を示す。図82に示された点群は、デプスカメラで観察された点群を含み、これらは、観察された上腕骨頭に属する点であってよい。図82に示す点群は、リーマ軸に属する点群、リーマの裏側に属する点群、及び深さ支援要素(平面)に属する点群も含んでよい。
可視化デバイス213は、分類を精緻化して、深さ支援要素(平面)に属する点のみを決定するように構成されてよい。可視化デバイス213が深さ支援要素(平面)に属するこれらの点を決定すると、可視化デバイス213は、(例えば、最良適合平面関数または方程式に従って)平面をこれらの点に適合することができる。再び、図80は、線に沿った観察される点8000が最良適合に従う線を規定できる「最良直線フィッティング」の例示の図である。最良適合平面を、同様に規定することができる。可視化デバイス213が、最良適合平面を決定すると、可視化デバイス213は、デプスカメラ(複数可)に由来する各フレームで最良適合平面を決定する簡単な追跡アルゴリズムを行うことができる。
深さ支援位置合わせの別の可能な例では、深さ支援要素7312の開始箇所を位置合わせするための位置合わせプロセスは、本開示の他の箇所に記載するように、患者の関節窩骨の仮想画像を患者の実際の関節窩骨へ位置合わせする類似の位置合わせプロセスであってよい。図77によると、この例では、図73のデプスカメラ7314は、深さ支援要素7312の位置合わせプロセスを行う複合現実システムの一部であってよい。いくつかの例では、深さ支援要素7312の深さ追跡は、深さ支援要素7312を位置合わせすることによって識別された開始箇所に対して生じ、他の場合には、深さ追跡は、デプスカメラに対する深さ支援要素7312の実際の深さをモニタリングするために行われてよく、これは、深さ支援要素7312の位置合わせを必ずしも必要としない場合がある。さらに、患者の肩の手術と関節窩骨のリーミングの文脈で主に記載したが、本開示の深さ追跡技術は、足首の手術の1つまたは複数のステップ等、他の手術にも使用されてよい。
いくつかの例では、位置合わせプロセスは、本開示の他の箇所に記載した技術と類似の「設定(SET)」及び「調整(ADJUST)」技術を用いて仮想要素を設定及び調整してよい。可視化デバイス213を使用すると、ユーザは、「設定(SET)」を開始して、仮想要素を提示してよく、仮想要素は、深さ平面を規定する深さ支援要素の仮想バージョン、深さ平面を規定するリーミングビットの裏側の仮想バージョン、深さ平面を規定する医療デバイスハウジングもしくは外科用ドリルの仮想バージョン、深さ平面を規定する医療用ドリルの別の部分の仮想バージョン、または、場合によっては、ツールビットの軸の垂直なただの深さ平面であってよい。ユーザは、「調整(ADJUST)」技術を実施して、例えば、複合現実システムにおいてジェスチャベースの制御を用いて、仮想要素の位置を調整してよい。所望の箇所に配置及び調整されると、プロセスは次に、マッチングアルゴリズムを実施して、仮想要素を対応する現実世界要素に「マッチ(MATCH)」させてよい。このようにして、深さ追跡に有用な仮想要素は、深さ支援要素7312等の現実世界要素へ位置合わせすることができる。
位置合わせがどのように行われるかに関わらず、深さ支援要素7312の深さがツールビットがツール使用箇所に配置されて位置合わせされると(7702)、外科医は次に、シャフト7302を回転させて、ツールビット7304によるツール使用を行うように、回転シャフト7302の近位端7308に取り付けられた医療デバイスを作動させてよい(7704)。外科医は、回転シャフト7302の軸に下向きの圧力をかけて、ツールビット7304によるドリルによる穴開けまたはリーミングを行わせてよい。再び、システムは、解剖学的肩再建手術中に、患者の関節窩骨のリーミングに特に有用であり得る、この場合、ツールビット7304は、ドリルビットではなく、リーミング要素となる。本開示の一部の態様は、リーミング深さに焦点を当てているが、ガイドピンを受ける穴をドリルで開ける時の深さ、例えば、リーミングピンを配置するためのドリル深さの深さ追跡をモニタリングするのにも役立ち得る。ガイドピンは次に、穴に配置されてよく、リーミングツールがガイドピンと共に使用されてよい。例えば、関節窩プレートの取付ペグを受ける穴をドリルで開けるために、または、足首の手術の距骨及び/または脛骨のドリルによる穴開け、リーミング、または他のツール使用のために、ドリル深さ追跡の他のインスタンスも望ましい場合がある。
いずれの場合でも、ツール使用プロセスによる作業を行っている間(7704)、デプスカメラ7314を使用して、回転シャフト7302の軸に対する深さ支援要素7312の位置を追跡することができる(7706)。このようにして、ツールビット7304のリーミング深さ(または、ドリル深さ)は、深さ支援要素7312の位置を追跡することによって、追跡及びモニタリングすることができる。
いくつかの例では、プロセスはまた、深さ支援要素7312の深さ追跡に基づいて、ツールビット7304の所望の深さを識別してよい(7708)。例えば、図76を参照すると、可視化デバイス213のデプスカメラ532による深さ追跡が、ユーザインタフェース522の支援で行われてよく、ユーザインタフェース522は、医療処置中、ツールビット(リーミング要素7606等)の深さを示す複合現実情報をユーザに提示してよい。いくつかの例では、ユーザインタフェース522は、リーミング要素7606の現在の実際の深さを示すものを提示してよい。いくつかの例では、ユーザインタフェース522は、術前計画によって決定され得るリーミング要素7606の所望の深さを示すものを提示してよい。所望の深さは、実際の現在の深さに対して示されてよく、いくつかの例では、ユーザインタフェース522が、所望の深さに達するために必要な残りの深さを示すものを提示してよい。例えば、可聴、触覚、または視覚フィードバックが深さを示してよい。
(本開示の他の箇所に記載するような)医療デバイスツール制御の他の機構も、外科医が所望の深さを達成するのを支援し、過剰なドリルによる穴開けまたは過剰なリーミングを避けるのを支援するために使用されてよい。例えば、可聴の指示または視覚的な指示が、深さ支援要素7604の深さ追跡に基づいて、可視化デバイス213を介して外科医に提示されてよい。医療デバイスのスマート制御も深さ支援要素7604の深さ追跡に基づいて実施されてよい。ある例では、医療用リーミングデバイスは、リーミング深さが術前計画で決定された所望の深さになるまたは超えると判断される場合、停止されてよい。医療処置を改善するために、これらの、または他の指示または制御は、深さ支援要素7604の追跡に基づいて使用されてよい。
図78は、特別に設計された深さ支援要素の必要性を除去し得る他の深さ追跡の例の側面図である。この例では、可視化デバイス213等の可視化デバイス(図78には示さず)が、リーミング要素の裏面(すなわち、非リーミング表面)の深さをモニタリングしてよい。システムは、リーミング要素の裏側の位置を追跡(場合によっては、制御)するように設計されてよい。この例では、深さ平面は、例えば、深さ支援要素を位置合わせするための、または、患者の関節窩骨に3Dモデルを位置合わせするための、本明細書に記載した位置合わせプロセスと類似の位置合わせプロセスを介して、リーミング要素の裏側に位置合わせされてよい。この例では、位置合わせプロセスは、(例えば、リーミング要素の仮想平面または仮想バージョンを実際のリーミング要素の裏側に位置合わせすることによって)仮想要素をリーミング要素に位置合わせすることを伴ってよい。
図78に示すように、リーミング要素の裏側へ深さ平面を位置合わせすることによって、リーミング要素の深さ追跡を次に達成し得る。しかしながら、リーミングが患者に対して行われている時、血液または他の物質がリーミング要素の裏側を正確に追跡する能力を阻害する場合があるので、リーミング要素の裏側の追跡に対しては、本明細書に記載のような深さ支援要素の使用が望ましい。
さらに別の例において、再び、図78を参照すると、深さ追跡が、外科用モータ(または、外科用モータを含む医療デバイス)に対して行われてよく、外科用モータ(または、医療デバイス)の深さは、リーミング要素の深さのプロキシとして使用することができる。本明細書に記載の深さ支援要素と同様に、図78に示す外科用モータは、リーミング要素の遠位端から固定の既知の距離に位置してよい。従って、(外科用モータの仮想要素の現実の外科用モータへの位置合わせを伴い得る)外科用モータの深さを位置合わせ及び追跡すると、深さ支援要素に対する本明細書に記載の深さ追跡と同様に、リーミング要素の追跡を達成することができる。この例では、深さ平面は、上記のように、位置合わせプロセスを介して外科用モータへ位置合わせされてよい。深さ平面を外科用モータへ位置合わせすることによって、次に、リーミング要素の深さ追跡が達成されてよい。深さ支援要素7604がスリーブ7610に固定される図76に示す例は、深さ支援要素7604が手術用ツールのハウジングに取り付けられる例と見なされてよい。例えば、スリーブ7610は、いくつかの例では、外科用ドリルのハウジングの一部を形成してよい。
図79は、リーマ7900に対して固定の箇所に取り付けられた深さ支援要素7902の例を示す別の側面図である。図79の例は、取り付けられた深さ支援要素を使用する他の例と一致し得る。この例によると、リーマの遠位端の深さを追跡及び制御するために、可視化デバイス213等の可視化デバイス(図79には示さず)を使用して、平面マーカ(または、他のタイプの仮想マーカ要素)をリーマ7900に追加してよい。仮想要素は、深さ支援要素7902へ位置合わせされる仮想平面を含んでよい。可視化デバイス213を使用して、システムは、デプスカメラで平面上の点を検出することができ、平面をリーマ7900に取り付けられた物理的な深さ支援要素7902に適合させることができる。この例では、深さ平面は、例えば、3Dモデルを患者の関節窩骨へ位置合わせするための上記の、また、本開示の他の箇所に記載の位置合わせプロセスに類似した位置合わせプロセスを介して、深さ支援要素7902へ位置合わせされてよい。深さ平面を深さ支援要素7902へ位置合わせすることによって、リーマ7900の深さ追跡を達成することができる。
いくつかの例では、本開示は、外科的な術中のワークフローガイダンスに関する幾つかの自動ベースの支援機能及び技術に関し、それらの一部は、肩修復手術等の整形外科的関節修復手術等の整形外科手術で看護師(または、他の医療助手、技師、または外科医)を支援するように設計されてよい。特に、手術室の看護師が定期的に手術の補助をしていない場合、看護師が、次の手術ステップ、または、次の手術ステップに必要な次の器具はどれか等、手術の詳細の全てを知ることは難しいことがある。例えば、看護師は、手術ステップ及び器具、それらのステップで使用されるインプラントもしくは他の手術アイテムについて異なる要件及び詳細を有する様々な手術を支援する場合がある。本開示の技術及びデバイスは、看護師を支援するプロセスの自動化を助け、手術での間違いを減らすことを助け得る。
いくつかの例では、技術は、センサ、加速度計及び/または光源等、拡張機能を用いて設計された手術アイテムを活用する。MRシステム212に関連付けられた処理デバイス等の1つまたは複数の処理デバイス、または他のコンピューティングシステムは、手術中に手術アイテムを追跡してよく、その使用をモニタリングしてよい。さらに、1つまたは複数の処理デバイスは、処置が行われている時に看護師の手術アイテム選択を支援する手術アイテムの拡張機能の制御を助けてよい。例えば、手術アイテムのセットは、このようなツールが手術に必要であることを看護師に知らせるために、このような手術アイテム内に常駐する光源(例えば、発光ダイオード)によって光らされてよい。さらに、照明は、例えば、整形外科手術の途中の特定の時点でこのような手術アイテムが必要である時、手術アイテムが光るように、手順と同期されてよい。いくつかの例では、選択された手術アイテムの光源は、手術に関連付けられた手術計画で規定された手術アイテムの指定された用途に基づいて光ってよい。
他の場合には、手術アイテムは、照明によって、または、MRシステム212の可視化デバイス213等、可視化デバイス上に複合現実によって提示された仮想要素によって、看護師に対して識別される。手術アイテムを識別するためにMRを介して提示される仮想要素の例は、半透明色の領域を使用した識別される手術アイテムの強調表示、識別される手術アイテムを囲む仮想の円、識別される手術アイテムを指す仮想の矢印、識別される手術アイテムの周囲の仮想の輪郭線、他の特定されない手術アイテムのビューを遮る仮想物体、他の特定されない手術アイテム上の不透明度を増加させることを含み得る。いくつかの例では、手術の1つまたは複数の手術アイテムは、コントローラ(例えば、手術アイテム上のライトまたは複合現実システムを制御するデバイス)に接続されてよい。このような接続性は、MRを使用して手術アイテムを識別する例では必要ない場合がある。手術アイテムを使用した後、処置に必要な次の器具が、自動で、強調表示、点灯、MRに提示される1つまたは複数の仮想要素によって識別、または、他の方法で看護師に対して識別されてよい。手術アイテムの自動識別は、手術アイテムが、このような手術アイテムが必要な時、例えば、整形外科手術の途中の特定の時点で、識別されるように、手術のワークフローのステップと同期されてよい。このように、本開示の技術及びデバイスは、看護師を支援するプロセスの自動化を助けてよく、手術中の間違いを減らす助けをしてよい。
場合によっては、手術アイテムのセットは、(例えば、MR可視化を使用して、手術アイテム上のライトを使用して、トレイのライトを使用して、または、他の方法もしくは方法の組み合わせを使用して)手術中に光らされて、看護師の手術アイテム選択を支援してよい、また、特定のタイプの照明が、セット中の異なる手術アイテムに対して使用されてよい。例えば、手術において以前に使用した手術アイテム、現在使用している手術アイテム、及び今後必要な手術アイテムは、異なる色もしくは色効果、または、異なるライトまたは空間的もしくは時間的点灯パターンで光らされてよい。光源を手術アイテムに直接組み込むことによって、バックライト、またはトレイもしくはテーブルの照明を使用する他の技術に対してより照明の正確性を確実にすることができる。他の技術では、手術アイテムが移動すると、照明が不正確になる可能性がある。さらに、アイテム追跡はまた、手術中、アイテム識別が正確であり、十分にドキュメンテーションされることを確実にすることを支援し得る。手術で使用中の手術アイテムの自動ドキュメンテーションは、このようなドキュメンテーションを物理的に追跡し、ドキュメンテーションに集中する必要をなくすことができ、外科医または看護師が、手術の他の側面に集中することを可能にする。
実際、アイテム追跡はまた、手術のドキュメンテーション及びログの支援と、例えば、術前計画に対して正確な手術アイテムが使用されていることを確実するための安全点検を提供するために使用されてよい。術前計画は、特定の患者に合わせて特別に規定された1つまたは複数の特徴を有する患者固有の手術計画であってよい。手術アイテムのオブジェクトベースの複合現実(MR)検出は、手術アイテム検証を支援してよい。いくつかの例では、手術アイテムの使用はまた、手術アイテムの加速度計の加速度計データをモニタリングするアイテム追跡で、モニタリングまたは検証されてよい。場合によっては、アイテム追跡は、例えば、光学コードスキャナ、RFIDリーダ、または他の機械自動化ツールを使用した、バーコードもしくは他の光学コードスキャン、RFID読取または他の自動化等の、他のアイテム追跡または他のアイテム位置合わせ技術と組み合わせて使用されてよい。場合によっては、光学コード読取、RFID読取、または他の機械自動化は、追加のバーコードリーダもRFIDリーダも必要とすることなく、MR環境でこのような自動化を可能にするために、可視化デバイス213のような可視化デバイスに組み込まれてよい。このように、手術のドキュメンテーションは、正確な手術アイテムが手術の適切な過程で使用されることを追跡し、検証することによって改善されてよい。可視化デバイス213による手術アイテムの光学コードスキャンを容易にするために、手術アイテムの一部または全ては、手術アイテム上に印刷または貼られてよい1次元バーコードまたは2次元バーコード等の光学的にスキャン可能なコードを含み得る。可視化デバイス213は、光学的にスキャン可能なコードを検出することに基づいて、特定の手術アイテムを検出してよく、その使用を医療処置に記録してよい。同様に、手術アイテムの箱またはトレイは、可視化デバイス213によってスキャンされ得る光学的にスキャン可能なバーコードを含んでよい。いくつかの例では、光学コードの使用の代わりに、または、それに加えて、可視化デバイス213は、コンピュータ画像認識及び/または光学式文字認識を使用して、手術アイテムを識別してよい。
いくつかの例では、本開示の技術の一部または全ては、複合現実(MR)可視化の支援で実施されてよい。例えば、手術アイテム自体に組み込まれたライトを使用するのではなく、仮想情報は、手術中、看護師が着用している複合現実ヘッドセット等の可視化デバイスによってユーザが見ることができる現実世界の手術アイテム上の位置に、または、その隣に可視化デバイスによって提示されてよい。このようなMRヘッドセットの例は、例えば、図2及び図5に示すMRシステム212の可視化デバイス213である。さらに、MRの使用は、埋め込み可能なデバイス、創縫合製品、及び他のタイプの手術アイテム等、ライトを組み込むのが実現困難である手術アイテムの識別を可能にし得る。これは、手術アイテム自体内の照明の必要性を取り除く場合があるが、一定の手術アイテム内の照明は、MRを使用する時でさえ望ましい。言い換えると、いくつかの例では、MRの実施態様は、手術アイテムの物理的ライトの代わりに使用されてよいが、他の例では、複合現実実施態様は、手術アイテムの物理的ライトと組み合わせて使用されてよい。さらに、複合現実は、ライト、センサ、加速度計、または他の追跡機能等、手術アイテムの他の拡張機能と共に使用されてよい。
いくつかの例では、ユーザは、手術室の環境、患者の実際の解剖学的構造、すなわち、手術中に露出される実際の骨または軟組織の解剖学的構造(例えば、肩関節形成における関節窩または上腕骨)等の現実の解剖学的構造を含む、現実世界シーンを見てよい。ユーザは、例えば、本開示に記載の可視化デバイス213等、ヘッドマウントMRデバイスのシースルーの透明ホログラフィックレンズによって、透明な画面を通してこのシーンを見てよく、ユーザはまた、例えば、仮想物体が、実際の現実世界シーン内に重ね合わせて、または他の方法で組み込まれてユーザに見えて、MR物体(複数可)が現実世界シーンの一部に見えるように、仮想MR物体、または、画面上もしくは画面内に投影される物体を見てよい。例えば、上記のように、仮想情報は、手術中に手術アイテムのステータスを、例えば、手術の現在のステップで使用される手術アイテム、以前に使用された手術アイテム、または手術の次のステップもしくは今後のステップで使用する手術アイテムとして識別するために、特定の現実世界の手術アイテムに重ねられて、またはその隣に提示されてよい。仮想情報は、可視化デバイス213等のMR可視化デバイスの画面上に、例えば、ホログラフィックレンズを介して、ホログラフィック画像が画面を通して見える現実世界の手術アイテム上に重ねられてホログラフィック画像として投影されてよい。
看護師の手術アイテム選択を支援することに加えて、本明細書に記載の技術及び特徴はまた、手術アイテム追跡及び手術のドキュメンテーションを改善し得る。上記のように、手術アイテムは、ツール、埋め込み可能なデバイス、他の手術アイテムのトレイ、または、手術中に使用し得る他の物理的物体を含んでよい。さらに、システムは、利用可能な手術アイテムの在庫に通信可能に結合されてよい。この場合、外科医が存在しない手術アイテムを必要とする場合、または、外科医が術前計画に対して手術の1つまたは複数のステップを変更する必要がある場合、本明細書に記載の特徴は、手術に使用するために他の手術アイテムがすぐに入手可能かどうかを調べるために看護師が病院の在庫をチェックするのを可能にする。その場合、看護師は、別の助手に必要な手術アイテムを在庫から取ってくるように指示してよく、手術アイテムの入手可能性を手作業でチェックするために助手を派遣する必要を回避する。これによって、手術中、重要な時間を節約することができ、不要なダウンタイムの回避を支援できる。
いくつかの例では、本開示の技術は、手術のより正確なドキュメンテーションと、手術中に使用される手術アイテムのより正確なドキュメンテーションとを容易にしてよい。可視化デバイスと複合現実とを使用することにより、看護師は、自動的に手術アイテムの使用をドキュメンテーションすることが可能になり得る。手術アイテムの物体識別及び物体追跡が、可視化デバイスのコンピューティングシステムによって行われて、手術アイテム選択と手術アイテム使用との追跡を支援してよい。例えば、外科医が使用する最初の手術アイテムを取ると、システムは、例えば、手術アイテムからのセンサデータ、画像ベースの物体検出、または手術アイテム上のスキャンされた印に基づいて、手術アイテムは外科医の手にあることを検出してよい。(例えば、手術アイテムの視覚的形状検出もしくは手術アイテム上の印の視覚的検出、または、手術アイテムからのセンサデータを使用することによる)このような物体追跡は、光学コードスキャン、RFID読取、または他のアイテム追跡自動化等、他の自動化の代わりに、または、それらと組み合わせて使用されてよい。いくつかの例では、物体検出ベースのアイテム追跡は、例えば、光学コードスキャン、RFID読取、または、他のアイテム追跡自動化に加えて、アイテム使用の検証及びさらなるドキュメンテーションとして使用されてよい。再び、場合によっては、光学コードスキャン、RFID読取、または他のアイテム追跡自動化機能は、可視化デバイス213等のMRデバイスに組み込まれてよい。可視化デバイス213は、手術アイテム使用のドキュメンテーションを行ってよく、このドキュメンテーションを記録管理及び術後分析のために保存してよい。再び、図6を参照すると、例えば、可視化デバイス213は、手術アイテム使用に関連付けられた追跡情報をドキュメンテーション及び後の読み出しのために、ストレージデバイス(複数可)612に記録してよい。例えば、手術アイテム、または手術アイテムに任意の特定の使用を可視化デバイス213によって検出すると、このような検出のタイムスタンプと、検出のタイプ(RFIDスキャン、バーコードスキャン、手術アイテムの物体検出、または他の自動化手術アイテム検出)、検出された手術アイテム、及び検出に関連付けられたタイムスタンプは、手術のドキュメンテーションと後の読み出しのためにストレージデバイス(複数可)612に記憶することができる。また、いくつかの例では、1つまたは複数の手術アイテムは、手術中の手術アイテム使用のドキュメンテーションのために、また、後に読み出すために、センサ情報、加速度計データ、照明(及び、任意のこのような情報またはデータと関連付けられるタイムスタンプ)を可視化デバイス213に伝えるように、例えば、通信デバイス(複数可)616、及び手術アイテムの対応する通信デバイスまたはモジュールを介して、可視化デバイス213と通信してよい。このようにして、手術の正確なドキュメンテーションが達成されてよく、手術自体が改善され得る。加速度計データをモニタリングすることによって手術アイテムが手術で使用される時を検証及びドキュメンテーションするように、センサ及び加速度計等の手術アイテムの拡張機能を使用して、アイテム追跡を支援してよい。
図83は、本開示の例による、手術アイテムのセット8302と処理デバイス8304とを含むシステム8300を示すブロック図である。手術アイテム8302は、本開示のアイテム追跡技術を用いて追跡されてよい。この例では、手術アイテム8302はそれぞれ、「L(複数可)」で示す1つまたは複数の光源を含む。光源L(複数可)は、発光ダイオード(LED)を含んでよいが、他のタイプの半導体光要素または他のタイプの光源も光源L(複数可)に使用されてよい。LED等の半導体照明は、低エネルギー使用、高効率、長寿命、及び高光度等の要因のために望ましい。さらに、異なる色、強さ、または、パルスもしくは点滅効果等の照明効果は、LEDを用いると制御及び達成しやすく、LEDは、異なる色の光を発することができる複数色のLEDを含み得る。いくつかの例では、色は、所与の環境に対して手術アイテムの識別に使用するために選択されてよい。例えば、手術室については、赤色を避けることが望ましく、緑色は、アイテム識別のために非常に見やすい場合がある。LEDは、LEDを駆動するように構成された関連するLEDコントローラを有してよい。
光源L(複数可)は、手術アイテムのセット8302内の各手術アイテム上または各手術アイテム内に取り付けられてよい。各手術アイテムは、例えば、ライトに電力を供給し、処理デバイス8304との通信能力を提供するために、各手術アイテム内に、電池、アンテナ及び通信回路を含んでよい。ライトは、手術アイテムのハウジングの空洞またはコンパートメント内に配置されてよい。ライトは、通信回路、アンテナ及び電池を含むライトモジュールの一部であってよい。ライトは、各手術アイテムの効果的な照明のために、手術中、例えば、上側、下側、または任意の所望の箇所に位置付けられてよい、または、配置されてよい。いくつかの例では、照明モジュールは、使い捨て可能に、または、取り外せないように手術アイテムに取り付けられてよい。ライトまたは照明モジュールは、滅菌に耐えるように設計されてよい。ライトに加えて、または、ライトの代わりに、音響または振動フィードバックモジュール(例えば、触覚フィードバックを用いて手術アイテムを「ブーンとする」または、音声フィードバックを用いて手術アイテムが「ビーと音を発する」)も使用されてよい。必要に応じて、手術アイテムはまた、手術アイテムを使用する時、選択可能な照明を有効にし、手術アイテムを使用しない時、照明を停止するオン/オフスイッチを含んでよい。
図104は、本開示に記載の手術アイテムの1つまたは複数に対応し得る手術アイテム10400のより詳細なブロック図である。手術アイテム10400は、1つまたは複数のプロセッサ10402と、通信バス10424を介して通信可能に結合された1つまたは複数のストレージデバイス10422とを含んでよい。手術アイテム10400は、手術アイテム用途、手術アイテム自動化、またはアイテム追跡のために、本明細書に記載のセンサのいずれか等の1つまたは複数のセンサ10404をさらに含んでよい。いくつかの例では、手術アイテム10400は、1つまたは複数の温度センサ10406、1つまたは複数の圧力センサ(複数可)10408、1つまたは複数のモーションセンサ(複数可)10410、及び1つまたは複数の配向センサ(複数可)10412を含むとして示されている。手術アイテム10400は、1つまたは複数の発光ダイオード(複数可)10420と1つまたは複数の加速度計(複数可)10418とをさらに含んでよい。手術アイテム10400はまた、手術アイテム10400に示すコンポーネントに電力を供給する電池等の電源10416を含んでよい。さらに、手術アイテム10400はまた、通信デバイス10414を含んでよく、通信デバイス10414は、可視化デバイス213の通信デバイス(複数可)616等の外部デバイスと通信するための(例えば、アンテナを有する)無線通信デバイスを含んでよい。センサ10404は、手術アイテム使用を示すものとして様々なもの(例えば、温度、動き、圧力、向き等)を感知してよく、感知されたデータ(及び、感知されたデータと関連付けられたタイムスタンプ等の、関連付けられたタイミング情報)は、ストレージデバイス(複数可)10422に記憶することができ、場合によっては、例えば、手術アイテム10400の通信デバイス(複数可)10414と可視化デバイス213の通信デバイス(複数可)616の間の無線通信を介して、可視化デバイス213に通信されてよい。
一般に、デバイスは、手術で使用するための手術アイテムと、手術アイテム上または手術アイテム内のライトとを含んでよく、ここで、ライトは、手術で使用する手術アイテムを識別するように、外部デバイスから制御可能である。いくつかの例では、デバイスは、加速度計及び/または1つまたは複数のセンサをさらに含んでよい。例として、手術アイテムは、測深器、コンパクタ、穿孔ツール、ラスピングツール、または表面プレーニングツールを含み得る。あるいは、手術アイテムは、関節窩インプラント、上腕骨インプラント、固定デバイス、または固定ハードウェア等の外科用インプラントを含む。手術アイテムは、特定の患者の解剖学的構造に合わせて設計された1つまたは複数の特徴を含む患者固有の手術アイテムであってよい。
いくつかの例では、手術アイテムのセット8302は、手術に使用可能な手術アイテムのキットを規定してよい。例えば、キットは、手術で使用するための複数の手術アイテムと、複数の手術アイテムのそれぞれの上または中にライトとを含んでよく、ここで、ライトは、手術で使用する複数の手術アイテムのそれぞれを選択的に識別するように外部デバイスによって制御可能である。いくつかの例では、複数の手術アイテムのそれぞれは、加速度計及び/または1つまたは複数のセンサを含んでよい。例として、キットは、複数の測深器、複数のコンパクタ、複数の穿孔ツール、複数のラスピングツール、複数の表面プレーニングツールを含んでよい。また、場合によっては、手術アイテムの少なくとも1つは、関節窩インプラント、上腕骨インプラント、固定デバイス、または固定ハードウェア等、外科用インプラントを含んでよい。手術アイテムは、特定の患者の解剖学的構造に合わせて設計された1つまたは複数の特徴を含む患者固有の手術アイテムを含んでよい。手術アイテム8302は、特定のタイプの肩の手術、または特定のタイプの足首の手術等、所与の手術に対して規定されてよい。従って、手術アイテム8302内のアイテムは、行われる手術に応じて様々であってよい。
「医療ツール」という用語は、例えば、測深器、コンパクタ、穿孔ツール、ラスピングツール、表面プレーニングツール、及び表面準備及びインプラント埋め込みに使用される他のツールを含む、整形外科手術で使用される広範なツールのいずれかを含んでよい。さらに、「手術アイテム」という用語は、本明細書に記載の医療ツール、外科用インプラント、及び手術で使用され得る他のアイテムを含んでよい。いくつかの例では、手術アイテムは、患者固有であってよい。言い換えると、(例えば、MRを使用した、拡張機能及び光または他の特徴を使用した)本明細書に記載のアイテム追跡技術はまた、例えば、肩関節修復手術の例で、関節窩もしくは上腕骨インプラント等のものを含む外科用インプラント、及び関連する固定デバイス、固定ハードウェア、または他のインプラント、もしくはこのようなデバイスを埋め込むために使用されるツールの形態の手術アイテムに適用し得る。
図83に示すように、処理デバイス8304は、手術アイテムのセットの外部にある。処理デバイス8304は、手術アイテムのセットと通信し、手術に基づいて、各手術アイテムの光源を制御するように構成される。このような通信について、処理デバイス8304と手術アイテムのセット8302の各手術アイテムとは、例えば、送信機、受信機及びモデム等、無線通信ハードウェアコンポーネントによってサポートされる無線通信能力を含んでよい。広範な通信技術のいずれかを使用してよいが、ブルートゥース、ジグビー、無線USB、または他の高速短距離通信プロトコル等の高速短距離通信プロトコルが特に有用であってよい。手術アイテムのセット及び処理デバイス8304内の無線通信コンポーネントは、説明を簡単で容易にするために図83には示していない。
全ての例にとって必要なわけではないが、手術アイテムのセット8302内の各手術アイテムはまた、加速度計(A(複数可)として示す)及び他のセンサ(S(複数可)として示す)等、他の拡張機能を含んでよい。手術アイテム内の加速度計A(複数可)及び他のセンサS(複数可)は、いくつかの例では、例えば、手術アイテムの場所及び動きを識別する能力を促進することによって、物体追跡を容易にし、向上させてよい。他のセンサS(複数可)は、ジャイロスコープ、アイテム使用中の周囲室温または患者の体温を追跡するための1つまたは複数の温度センサ、手術アイテムにかかる圧力を検出するための圧力センサ、血液等の流体を検出するための流体センサ、追加の加速度計、または手術アイテムのために望ましい任意のタイプのセンサを含んでよい。例えば、加速度計A(複数可)及び他のセンサS(複数可)は、特定の手術アイテムを医師が使用している時を、センサデータ及び加速度計データに基づいて、処理デバイス8304が判断するのを可能にし得る。センサS(複数可)はまた、手術中、例えば、圧力、温度、または他の感知されたパラメータに基づいて、手術アイテムの使用に関してより高度な情報を提供してよい。このような感知されたデータは、手術アイテムに記憶されててよい、または、場合によっては、手術アイテムから処理デバイス8304、可視化デバイス213、または他の外部デバイス等、外部デバイスに通信されてよい。
いくつかの例では、手術アイテムのセット8302内の各手術アイテム内の光源L(複数可)は、手術で医師が必要とする一連の手術アイテムを看護師が識別するのを支援することができる。処理デバイス8304は、異なる手術アイテムが異なる時に光るように、各手術アイテム(例えば、アイテム1、アイテム2、アイテム3、・・・アイテムN)の光源L(複数可)を作動または停止するように構成されてよい。また、場合によっては、処理デバイス8304は、異なる手術アイテムが異なる色で(及び、場合によっては異なる時に)光るように、各手術アイテム(例えば、アイテム1、アイテム2、アイテム3、・・・アイテムN)の光源L(複数可)を作動または停止するように構成されてよい。色調整スキームが規定されてよく、それによって、看護師は、色を使用して、手術において、どの手術アイテムが使用されているか、どの手術アイテムが既に使用されたか、及び、どの手術アイテムが医師が必要な次の手術アイテムかを識別することができる。手術の途中で必要な一連の手術アイテムは、患者のための仮想手術計画に規定されてよく、仮想手術計画はまた、患者固有であってよく、患者に合わせて特に規定されたツール、インプラント、及び手術シーケンスを含み得る。
いくつかの例では、処理デバイス8304は、手術アイテムのセットの全ての手術アイテムを識別するように、且つ、手術アイテムの1つを特に区別するように、各手術アイテム(アイテム1~アイテムN)のセットの光源L(複数可)を制御するように構成される。言い換えると、全ての手術アイテム(アイテム1~アイテムN)が照らされてよいが、手術アイテムの特定の1つ(例えば、アイテム2)は、何らかの方法で区別されてよい。このようにして、看護師は、アイテムのセット全体と、現在必要な特定の手術アイテムとを識別可能であってよい。手術アイテムのセット(アイテム1~アイテムN)は、より大きい手術アイテムの集まりに含まれてよく、手術アイテムのセット(アイテム1~アイテムN)を照らすことによって、その手術アイテムのセットが手術アイテムのより大きい集まりから区別され、特定の手術アイテム(例えば、アイテム2)の区別された照明によって、セット内の特定の手術アイテムを看護師がより迅速に識別するのを可能にし得る。
いくつかの例では、異なる光の色を使用して、手術アイテムの1つを手術アイテムのセットから区別してよい。いくつかの例では、照明効果(例えば、アイテムごとに時間的な閃光パターンまたはレートを規定し得る点滅または閃光ライト)を使用して、手術アイテムの1つを区別してよい。いくつかの例では、照度を使用して手術アイテムの1つを区別してよい。他の例では、複数のライトが手術アイテムに備えられる場合、手術アイテム上の幾つかのライトの照明またはライトのパターンを使用して、手術アイテムを区別してよい。これらのまたは他の例(及び、このような区別される照明の任意の組み合わせ)を使用して、看護師がセット内の特定の手術アイテムを迅速及び正確に識別するのを支援してよい。
いくつかの例では、各手術アイテムの光源L(複数可)は、手術アイテムの第1のサブセット、手術アイテムの第2のサブセット、及び手術アイテムの第3のサブセットを区別するように制御される。例えば、手術アイテムの第1のサブセットは、既に使用された手術アイテムに対応してよく、手術アイテムの第2のサブセットは、現在使用している手術アイテムに対応してよく、手術アイテムの第3のサブセットは、今後必要な手術アイテムに対応してよい。
いくつかの例では、手術アイテムのセット8302(アイテム1~アイテムN)は、異なるサイズまたは形状の類似の手術アイテムを規定してよく、これらは、手術において連続して使用されてよい。例えば、手術アイテムのセット8302(アイテム1~アイテムN)は、整形外科的肩再建手術用の連続したサイズまたは形状の(例えば、上腕骨管を測深するための)整形外科用測深器のセットに対応してよい。いくつかの例では、手術アイテムのセット8302(アイテム1~アイテムN)は、整形外科的肩再建手術用の連続したサイズまたは形状の1つまたは複数の穿孔ツールをさらに含んでよい。いくつかの例では、手術アイテムのセット8302(アイテム1~アイテムN)は、整形外科的肩再建手術用の連続したサイズまたは形状の1つまたは複数の圧縮ツールをさらに含んでよい。さらに別の例では、手術アイテムのセット8302(アイテム1~アイテムN)は、整形外科的肩再建手術用の連続したサイズまたは形状の1つまたは複数の表面プレーニングツールをさらに含んでよい。これらのまたは他の例では、異なるサイズまたは形状の手術アイテムのセット8302(アイテム1~アイテムN)は照らされてよいが、照明は、このような手術アイテムが以前に使用されているか、このような手術アイテムが現在使用中か、または、このような手術アイテムが今後使用する計画があるかに応じて、異なってよい。セット全体が照らされてよいが、看護師または他のユーザが、以前に使用された手術アイテムを現在使用中の手術アイテムから区別できるように、且つ、今後必要な手術アイテムを現在使用中の手術アイテムと以前に使用された手術アイテムとから区別できるように、照明は目立つようにコード化されてよい。異なるタイプの光の色、異なるタイプの照度、または異なるタイプの照明効果を使用して(場合によっては、組み合わせて)看護師の手術アイテム選択を支援してよい。手術中に使用される手術アイテムのセットは、術前計画によって規定されてよく、本開示の技術は、手術の全ての手術アイテムを識別してよく、また、例えば、仮想の患者固有の手術計画によって規定されるような、術前計画に従った手術で現在必要とされる手術アイテムである特定の手術アイテムも識別してよい。場合によっては、手術アイテムは、例えば、1~10のサイズ範囲であってよく、システムは、例えば、術前計画に従って、これらのサイズのサブセットを識別するように設計されてよい。場合によっては、手術アイテムのセット全体に対するライトが1つと、そのセットから使用する特定の手術アイテムに対して別のライトがあってよい。
上記のように、いくつかの例では、本開示の技術の一部または全ては、複合現実の支援で実施されてよい。例えば、手術アイテム自体に組み込まれたライトを使用するのではなく、手術中に看護師が着用するMRヘッドセット等、可視化デバイスによって、仮想情報が手術アイテム上に重ね合わせられてよい。これによって、手術アイテムのライトの必要性を取り除いてよいが、複合現実を使用する時でさえ、ライトは望ましい。言い換えると、ある例では、複合現実の実施態様は、手術アイテムの物理的ライトの代わりに使用されてよいが、他の例では、複合現実の実施態様は、手術アイテムの物理的ライトと組み合わせて使用されてよい。さらに、複合現実は、ライト、センサ、加速度計、または他のアイテム追跡機能等、手術アイテムの他の拡張機能と組み合わせて使用されてよい。
図84は、本開示の例による、手術アイテムのセット8402と、MR可視化デバイス213の形態の処理デバイスとを含む医療デバイスシステム8400を示す概念ブロック図である。この例では、セット8402の各手術アイテムは、「V(複数可)」として示される重ね合わされた仮想要素と共に示されている。仮想要素V(複数可)は、複合現実提示の仮想要素として、可視化デバイス213のユーザに提示されてよい。仮想要素V(複数可)は、図83に示し、記載される光源L(複数可)と同様に機能してよい。しかしながら、仮想要素V(複数可)は、現実には、手術アイテムのセット8402の一部ではない。そうではなく、仮想要素V(複数可)は、手術アイテムのセット8402の各手術アイテムに関連付けられて見えるように、可視化デバイス213によって提示される要素である。このようにして、手術アイテム自体に組み込まれたライトを使用するのではなく、複合現実を使用して、可視化デバイス213によって手術アイテム上に提示または、場合によっては、重ね合わされた仮想情報を提示する。可視化デバイス213は、術中ガイダンス及びワークフローガイダンスも提供しながら、例えば、看護師の手術アイテム識別に使用されてよい。可視化デバイス213上に見えるビューは、看護師にとって、外科医のビューとは異なってよい。可視化デバイス213上のアイテム識別機能または提示は、看護師に提示されてよいが、外科医には提示されないが、本開示の他の箇所により詳細に記載するように、ビュー共有技術も使用することによって、外科医は、看護師のビューから画像または物体を選択して、見ることができる。
本開示によると、可視化デバイス213は、手術において医師が必要とする一連の手術アイテムを看護師が識別するのを支援できるように、手術アイテムのセット8402内の各手術アイテム上、または、そのまわりに仮想情報V(複数可)を提示する。このような仮想情報は、手術アイテムを区別するための仮想のハロー、輪郭線、強調表示、マーク、テキスト(レタリング及び数字を含む)、または、他のタイプの仮想要素を含んでよい。可視化デバイス213は、異なる手術アイテムが異なる色で照らされて見えるように、手術アイテムのセット8402の各手術アイテム(例えば、例えば、アイテム1、アイテム2、アイテム3、・・・アイテムN)の仮想要素V(複数可)をアクティブまたは非アクティブにするように構成されてよい。例えば、異なる色の仮想のハロー、輪郭線、または強調表示を使用して、手術アイテムを照らしてよい。色調整スキームが、手術中、どの手術アイテムが使用されているか、どの手術アイテムが既に使用されたか、及び、どの手術アイテムが次に医師が必要な手術アイテムかを看護師が色を使用して識別できるように、規定されてよい。手術の過程で必要な一連の手術アイテムは、術前計画で規定されてよい。
いくつかの例では、可視化デバイス213は、手術アイテムのセット内の全ての手術アイテムを識別するように、且つ、手術アイテムの1つを特に区別するように、手術アイテムのセット8402内の各手術アイテム(アイテム1~アイテムN)に関連付けられた仮想情報V(複数可)を制御するように構成される。言い換えると、セット8402内の全ての手術アイテム(アイテム1~アイテムN)は、仮想情報V(複数可)によって識別されてよいが、アイテムの特定の1つ(例えば、セット8402内のアイテム2)は、それに関連する仮想情報V(複数可)によって区別されてよい。仮想情報V(複数可)は、手術アイテムを区別するための本開示の他の箇所に記載される仮想情報のタイプのいずれかを含んでよい。このように、複合現実を使用して、手術アイテムのセット全体と、現在必要な特定の手術アイテムとを看護師が識別するのを支援してよい。手術アイテムのセット8402(アイテム1~アイテムN)は、手術アイテムのより大きい集まりに含まれてよく、仮想情報V(複数可)を用いた手術アイテムのセット(アイテム1~アイテムN)の仮想識別が手術アイテムのより大きい集まりから手術アイテムのセットを区別し、特定の手術アイテムの区別された仮想情報(例えば、アイテム2のV(複数可))が、看護師がセット内の特定の手術アイテムをより迅速に識別するのを可能にしてよい。
いくつかの例では、手術アイテムのセット8402の各手術アイテムに重ね合わされた仮想要素V(複数可)は、手術アイテムの1つを手術アイテムのセットから区別するように、異なる色を含んでよい。いくつかの例では、仮想要素V(複数可)と共にMR照明効果(例えば、点滅または閃光ライト)を使用して、手術アイテムの1つを区別してよい。いくつかの例では、仮想要素V(複数可)に適用される照度で、手術アイテムの1つを区別する。これらのまたは他の例(及び、仮想要素V(複数可)によるこのような区別された照明の任意の組み合わせ)を使用して、セット内の特定の手術アイテムを看護師が迅速及び正確に識別するのを支援してよい。
いくつかの例では、医療デバイスシステムは、複数の手術アイテムと、ユーザへのMR提示を提示するように構成された可視化デバイスと、手術に基づいて複数の手術アイテムから手術アイテムを選択するように構成された1つまたは複数のプロセッサとを含む。1つまたは複数のプロセッサは、複数の手術アイテムの中から選択された手術アイテムを識別する仮想情報を、MR提示において、提示するようにさらに構成されてよい。仮想情報は、可視化デバイスを介して見える選択された手術アイテムの位置上、または、その隣に提示されてよい。プロセッサは、MR可視化デバイスの一部であってよい、または、プロセッサは、MR可視化デバイスの外部にあってよい。本開示の他の箇所により詳細に記載するように、MR可視化デバイスは、仮想モデル及び仮想ガイドをユーザに提示するために、1つまたは複数のシースルーのホログラフィックレンズと、ホログラフィックレンズを介した画像を表示する1つまたは複数のディスプレイデバイスとを含んでよい。
例えば、可視化デバイス213によってユーザに提示されるMRコンテンツのさらなる例として、仮想要素V(複数可)は、識別する手術アイテムに外接する識別ループまたは円、矢印、X、十字線、括弧、形状(点滅し得るまたは他の効果を有し得る円、長方形、四角形、楕円形、数、文字、言葉または記号)、色または強度と組み合わせた異なる背景の網掛けまたはパターンを含む。これらの、及び広範な他のタイプのMRコンテンツは、MRの支援で所与の手術アイテムを強調表示(または、区別)する視覚的要素V(複数可)として追加されてよい。
いくつかの例では、各手術アイテムと関連付けられた仮想要素V(複数可)は、手術アイテムの第1のサブセット、手術アイテムの第2のサブセット、及び手術アイテムの第3のサブセットを区別するように、可視化デバイス213を介してユーザに表示される。例えば、手術アイテムの第1のサブセットは、既に使用された手術アイテムに対応してよく、手術アイテムの第2のサブセットは、現在使用している手術アイテムに対応してよく、手術アイテムの第3のサブセットは、今後必要な手術アイテムに対応してよい。
いくつかの例では、セット8402の手術アイテムのセット(アイテム1~アイテムN)は、異なるサイズまたは形状の類似の手術アイテムを規定してよく、これらは、手術において連続して使用されてよい。例えば、手術アイテムのセット8402(アイテム1~アイテムN)は、整形外科的肩再建手術用の連続したサイズまたは形状の測深器のセットに対応してよい。さらに、手術アイテムのセット8402(アイテム1~アイテムN)は、整形外科的肩再建手術用の連続したサイズまたは形状の1つまたは複数の穿孔ツールをさらに含んでよい。さらに、手術アイテムのセット8402(アイテム1~アイテムN)はまた、整形外科的肩再建手術用の連続したサイズまたは形状の1つまたは複数の圧縮ツールを含んでよい。さらに、手術アイテムのセット8402(アイテム1~アイテムN)はまた、整形外科的肩再建手術用の連続したサイズまたは形状の1つまたは複数の表面プレーニングツールを含んでよい。
これらのまたは他の例では、異なるサイズまたは形状の手術アイテムのセット8402(アイテム1~アイテムN)は、仮想要素V(複数可)で識別されてよい。いくつかの例では、各手術アイテムが、その手術アイテムが使用される時に識別される。しかしながら、いくつかの例では、複数の手術アイテムが識別されてよい。いくつかの例では、仮想要素V(複数可)の要素のタイプ、色または形状は、このような手術アイテムが以前に使用されたか、このような手術アイテムが現在使用中か、または、このような手術アイテムが今後使用する計画があるかに応じて異なってよい。セット全体が、仮想要素V(複数可)によって識別されてよいが、仮想要素V(複数可)は、看護師が、以前に使用された手術アイテムを現在使用中の手術アイテムから区別できるように、また、今後必要な手術アイテムを現在使用中の手術アイテムと以前に使用された手術アイテムとから区別できるように、目立つように規定されてよい。異なるタイプの色、異なるタイプの照度、または異なるタイプの効果を仮想要素V(複数可)と共に(場合によっては、組み合わせて)看護師の手術アイテム選択を支援するために使用してよい。
手術中に使用される手術アイテムのセットは、術前計画によって規定されてよく、本開示の技術は、手術の全ての手術アイテムを識別してよく、術前計画に従った手術で現在必要とされる特定の手術アイテムも識別してよい。再び、可視化デバイス213は、術中ガイダンス及びワークフローガイダンスも提供しながら、例えば、看護師の手術アイテム識別に使用されてよい。可視化デバイス213上に見えるビューは、看護師にとっては、外科医のビューと異なってよい。可視化デバイス213上のアイテム識別機能または提示は、看護師に提示されてよいが、外科医には提示されない。しかし、本開示の他の箇所により詳細に記載するように、ビュー共有技術も使用されてよく、それによって、外科医は、看護師のビューから画像または物体を選択し、見ることができる。
図85は、本開示の例による、手術アイテムのセット8502と、可視化デバイス213の形態の処理デバイスとを含む医療デバイスシステム8500を示す別の概念ブロック図である。この例では、医療デバイスシステム8500は、図85のシステム8500に関して前述した特徴の一部または全てと組み合わせて、図83のシステム8300に関して前述した特徴の一部または全てを含んでよい。セット8502の各手術アイテムは、光源L(複数可)、加速度計A(複数可)、他のセンサS(複数可)と、「V(複数可)」として示す1つまたは複数の仮想要素とを含んでよい。仮想要素V(複数可)は、複合現実提示の仮想要素として、可視化デバイス213のユーザに提示されてよい。このようにして、光源L(複数可)、加速度計A(複数可)、他のセンサS(複数可)等の拡張機能を有する手術アイテムは、複合現実及び仮想要素V(複数可)と共に使用されて、複合現実制御、アイテム追跡及び手術追跡を有する高度な手術アイテムのセットを提供し得る。仮想要素V(複数可)を光源L(複数可)と組み合わせて使用することで、可視化デバイスを着用または他の方法で使用している人と、可視化デバイスを使用していない人とによるアイテム識別を可能にし得る。または、光源L(複数可)が、アイテム識別、または、異なる照明もしくは識別効果を改善するために、仮想要素V(複数可)と組み合わせて使用されてよい。
いくつかの例では、MRシステム212は、複合現実の支援でアイテム追跡を可能にするように構成されてよい。さらに、MRシステム212はまた、複合現実を使用して手術の追跡及びドキュメンテーションを可能にしてよい。例えば、アイテム追跡は、MRシステム212によって行われて、手術のドキュメンテーション及びログを支援し、且つ、例えば、術前計画に対して正確な手術アイテムが使用されていることを確実にする安全点検を提供してよい。MRシステム212は、手術アイテムのオブジェクトベースの検出を利用してよい。
例えば、医師が手術アイテムのセット8502の手術アイテムの1つを与えられると、MRシステム212は、正確な手術アイテムを使用していることを確認するための検証として、視覚的な物体検出を行ってよい。視覚的な物体検出は、物体の形状の検出(または、場合によっては、バーコード、テキスト、文字、数字を表す語、または手術アイテムに関連付けられた他の識別のための印の検出)を指してよい。このような視覚的な物体検出は、バーコードスキャン、RFID読取、または他のアイテム追跡技術に加えて使用されてよい。さらに、選択された手術アイテムの加速度計A(複数可)に関連付けられた加速度計データは、手術アイテム使用のさらなる検証及びドキュメンテーションとして使用されてよい。例えば、加速度計A(複数可)に関連付けられた加速度計データは、手術アイテムの使用、手術アイテムが静止していること、特定のタイプの手術アイテムの位置決めを示してよい。このようなデータは、手術アイテムの使用(または、使用していないこと)を識別及びドキュメンテーションするのに有用であり得る。
アイテム追跡技術の組み合わせの使用によって、手術中のアイテム追跡及びドキュメンテーションの正確さの改善を支援し得る。本開示によると、手術アイテムのRFIDもしくは光学コードスキャン、または他の追跡技術で手術アイテム使用の可能性のある時を識別するように、加速度計データ、MR可視化デバイスのカメラを用いた手術アイテムの視覚的な物体検出、使用中に手術アイテムがトレイに存在しないことを追跡及びモニタリングすることによるMR可視化デバイスによるトレイ追跡の技術の2つ以上を使用して、手術アイテムの使用を検証してよい。トレイ追跡は、カメラを使用して手術アイテムがトレイに無いことを識別してよく、手術アイテムがトレイに無いことを使用して、手術アイテムが使用中の可能性が高いと推論してよい。いくつかの例では、これらのアイテム追跡技術の3つ以上、4つ以上、または5つ以上を使用して、手術中、アイテム追跡が正確で、良好にドキュメンテーションされていることを確実にする支援を行ってよい。
アイテム追跡情報は、手術の記録として、手術中に可視化デバイス213によって記録されてよい。記録されたアイテム追跡情報は、手術アイテムがどのように使用されるかのビデオ、どの手術アイテムが使用されたかの記録、個々の手術アイテムがいつ使用されたかの記録等、を含み得る。例えば、どの手術アイテムが使用されたかに関する情報は、手術アイテムのこのようなマルチモード追跡を容易にすることであってよく、場合によっては、光学コード読取、カメラの使用による物体検出、RFID読取または他の機械自動化を、追加のバーコードリーダやRFIDリーダを必要とせずに、MR環境でこのような自動化を可能にするために、可視化デバイス213などの可視化デバイスに組み込んでよい。このようにして、手術のドキュメンテーションは、正確な手術アイテムが手術の適切な過程で使用されていることを追跡及び検証することによって、改善されてよい。
システム8500は、アイテム使用を追跡して、手術で使用する次の手術アイテムを勧めるように構成されてよい。例えば、システム8500は、事前に規定された手術計画等の手術計画に基づいて、手術アイテムを制御するように構成されてよい。この例では、手術計画は、手術計画によって規定された手術の様々なステップでどの手術アイテムが使用されるかを指定する情報を含んでよい。従って、システム8500は、手術計画のこのような情報を使用して、手術計画に基づいて、手術アイテムを選択してよい。さらに、手術アイテムのセット8502の手術アイテムの全て(アイテム1~アイテムN)を使用した後、システム8500は、手術の次の段階、例えば、場合によっては、例えば、次のステップのための異なるトレイまたはボックスの手術アイテムの新しいセット全体を識別することに移るように構成されてよい。いくつかの例では、アイテム追跡及びアイテム識別機能は、可視化デバイス213等のMRデバイスを着用しているまたは他の方法で使用している看護師に固有であってよい。
外科医も、類似のMRデバイスを着用または他の方法で使用している場合があるが、外科医のMRデバイスは、看護師のMRデバイスが行うアイテム追跡及びアイテム識別機能を含まなくてよい。言い換えると、いくつかの例では、外科医のMRデバイスは、看護師のMRデバイスの機能の全てを提供するように構成されてよいが、他の例では、外科医のMRデバイスは、特定の手術アイテムを識別する仮想画像を提示するように構成されない場合があり、手術アイテムまたは手術アイテムの使用を識別するための視覚的検出機能も加速度計データを処理する機能も含まない場合がある。
いくつかの例では、本開示の他の箇所に記載されるビュー共有技術を使用して、外科医は、看護師のビューを見ることができるが、典型的に、外科医は、整形外科手術と、行っている手術の骨もしくは組織の部位とに注意を集中し得るので、その外科医固有のMR提示を見ていて、看護師が見ているアイテム追跡MR要素を見ていない場合がある。アイテム識別のために看護師が見ているMR要素は、看護師が手術アイテムのセットを見ている時、その看護師にだけ見えてよい。
手術の記録は、安全追跡、品質管理、法令順守、手術の分析、器具もしくは他の手術アイテムを何回使用したかの追跡、器具の使用年数、器具の寿命、または他の理由のために、非常に役に立つまたは重要であり得る。手術アイテム使用の追跡に加えて、可視化デバイス213(または、場合によっては、MRが手術で使用されない場合は、他のデバイス)は、手術中に手術アイテムの使用に関連付けられた時間をログするように、各手術アイテム使用のカウンタをログするように、手術のステップ間の時間、または、他のタイミングもしくは追跡を記録するように構成されてよい。例えば、手術アイテムの使用及び手術アイテムモニタリングを使用して、外科医が測深を行った時間量、外科医がラスピングを行った時間量、外科医が圧縮を行った時間量、外科医が表面プレーニングを行った時間量等を記録してよい。手術アイテム使用を用いて、手術の各ステップを追跡することによって、また、各手術アイテムが使用される時間を記録することによって、システムは、手術全体の非常に正確な実態を記録し得る。
追跡に有用であり得る他の事は、手術アイテムに対して行った滅菌の回数、手術アイテムを移動した回数、手術で手術アイテムを使用した回数もしくは時間量、手術アイテムが床に落ちたことを示すもの、または、手術アイテム固有のタイプの他の使用もしくは誤用を含み得る。手術ログに手術のステップを記録するために、光源L(複数可)、加速度計A(複数可)、他のセンサS(複数可)等の高度な手術アイテム機能が、単独で、または、視覚的要素V(複数可)を使用したMRベースのアイテム追跡、MR可視化デバイスに取り付けられたセンサを使用した視覚的な物体検出、及び、仮想情報V(複数可)の看護師への提示を含む、複合現実技術との組み合わせで使用されてよい。
例えば、手術記録管理及び手術アイテム追跡は、手術の段階に分割されてよい。図86~図94は、手術の各段階について、アイテム追跡、アイテム選択及び識別、並びに、手術アイテム使用のドキュメンテーションを行い、記録する解剖学的関節形成の段階の一例を示す。図86~図94に記載する例は、説明目的で、肩関節形成における上腕骨とインプラントの準備を示すが、本明細書に記載の技術と類似の技術は、関節窩準備及びインプラント等の肩関節形成や、他の整形外科手術の他のステップに適用することができる。図86~図94及び図95~図108は、特定の肩の手術ステップの態様を記載しているが、本開示の技術は、他のタイプの手術に適用されてよい。さらに、足首の手術は、患者の距骨及び脛骨のドリルによる穴開け、切断、インプラント部位の準備、インプラントの取付のための複数のツール及びジグの使用とを伴ってよく、本開示のツール追跡技術は、特に、手術で様々な異なるツールを使用する足首の手術に利用されてよい。
図86~図94に示す例においては、手順は、図86に示す測深手順、図87に示す穿孔手順、図88に示す圧縮もしくはラスピング手順、図89に示す表面プレーニング手順、図90に示す保護手順、図91及び図92に示すトライアル手順、及び、図93及び図94に示すインプラント手順等の段階に分けられてよい。各段階は、複数の手術アイテムの使用を伴ってよく、本開示の技術は、各段階で使用する複数の手術アイテムの手術アイテム選択と手術アイテム識別とを支援してよい。いくつかの例では、手術アイテムのセットは、全手順に対して規定され、他の例では、手術アイテムのセットは、全手順の各段階に対して規定される。いずれの場合でも、例えば、術前計画によって規定されるように、手術アイテムのセットが規定されて、手術の現在のステップで使用される特定の手術アイテムも区別されてよい。または、この技術は、例えば、手術のステップまたは段階に対して、手術アイテムのセットの他の手術アイテムを識別することなしに一度に1つの手術アイテムを識別して、手術アイテムのセットの単一の手術アイテムを区別することができる。図86に示す測深手順は、患者の上腕骨8602内の軟組織への1つまたは複数の測深器8600の挿入を伴ってよい。図87に示す穿孔手順は、(例えば、図86に示す)測深器が挿入された領域の患者の上腕骨8702内に穿孔ツール8700の接続及び挿入を伴ってよい。図88に示す圧縮またはラスピング手順は、患者の上腕骨8802に作成された穴への1つまたは複数の圧縮ツール8800の挿入を含んでよい。圧縮またはラスピングは、状況に応じて、長いステムまたは短いステムを用いて行われてよい。図89に示す表面プレーニング手順は、プレーニングツール8900を用いた患者の上腕骨8902上の表面プレーニングを含んでよい。図90に示す保護手順は、保護ハードウェア9000の患者の上腕骨9002への取付を含んでよい。図91及び図92に示すトライアル手順は、追加のインプラントハードウェア9100または9200の患者の上腕骨9102または9202への取付を伴ってよく、図93及び図94に示すインプラント手順は、最後のインプラント9300または9400の患者の上腕骨9302または9402への取付を含んでよい。
手順が段階に分けられる場合、任意の所与の段階の最後の手術アイテムの使用を識別すると、可視化デバイス213は、手順の段階と共にプログラムされてよく、所与の段階が完了し、次の段階のための準備をする時であることを看護師に警告するように構成されてよい。この場合、看護師は、手術アイテムの次のセットを、手術で使用する手術アイテムの次のセットとして準備するように促されてよい。例えば、図86に示す測深手順は、本明細書に記載のように識別及び追跡できる複数の異なるサイズの測深器の使用を伴い得るが、その測深手順終了後、看護師は、図87に示す穿孔手順に使用する穿孔ツールのセットを準備するように可視化デバイス213によって促されてよい。
同様に、図87に示す穿孔手順は、本明細書に記載のように識別及び追跡できる1つまたは複数の穿孔ツールの使用を伴い得るが、その穿孔手順終了後、看護師は、手術アイテムの次のセット、すなわち、図88に示す圧縮に使用されるまたはラスピング手順に使用される圧縮ツールのセットを準備するように可視化デバイス213によって促されてよい。次に、図88に示す圧縮またはラスピング手順も本明細書に記載のように識別及び追跡できる複数の異なるサイズの圧縮ツールの使用を伴い得るが、その圧縮またはラスピング手順終了後、看護師は、手術アイテムの次のセット、すなわち、図89に示す表面プレーニング手順に使用される表面プレーニングツールのセットを準備するように可視化デバイス213によって促されてよい。可視化デバイス213は、手術アイテム選択、手術アイテム準備、及び手術の各ステップまたはサブステップの手順追跡を支援してよい。各ステップに対して看護師を促すことは、視覚的キュー、仮想要素または他のMRコンテンツの可視化デバイス213上への提示を含んでよい。
図95は、測深器9500が患者の上腕骨9502内に挿入される人間の上腕骨で行われる測深手順の側面概念図である。図96は、図95に示す手術手順で使用される異なるサイズの医療用測深器のセット9600の図である。典型的に、測深器は、最小の測深器から最大の測深器に連続して使用される。術前計画に応じて、測深器の一部は使用されなくてよい。例えば、場合によっては、使用される最初の測深器は、手術アイテムのセットのうち最小の測深器ではない場合がある。その場合、最小の測深器は、手順で使用されなくてよい。同様に、場合によっては、使用される最後の測深器が、最大の測深器でない場合がある。その場合、最大の測深器は、手順で使用されなくてよい。使用される具体的な測深器は、術前計画によって規定されてよく、手術アイテム識別技術は、術前計画に従って手術アイテムを識別してよい。場合によっては、術前手術計画は、手術手順の所与のステップに対して使用される手術アイテムを識別してよく、可視化デバイス213は、手順の所与のステップの最後の手術アイテムを識別してよい。次に、最後の手術アイテムの使用を検出すると、可視化デバイス213は、手術手順の次のステップをユーザに対して自動的に識別してよい。
本開示によると、拡張機能(加速度計、光源、または他のセンサ等)が、本明細書に記載のアイテム識別及びアイテム追跡を可能にするために図96に示す各測深器に含まれてよい。さらに、場合によっては、MRシステム212は、例えば、図96に示す各測深器上、そのまわり、またはその隣に重ねられた仮想要素を提示して、本明細書に記載のアイテム識別及びアイテム追跡を可能にしてよい。手順追跡、使用のタイミング、及び、手術アイテム使用のドキュメンテーションはまた、自動の手術アイテム識別、手順追跡、及び手術手順記録を可能にするように、MRシステム212によって記録されてよい。
図97は、徐々に大きくなる測深器のセット9700を含む手術アイテムのセットの図である。本開示の技術は、測深器9700のそれぞれで拡張機能(加速度計、光源、または他のセンサ等)を利用して、本明細書に記載のアイテム識別及びアイテム追跡を可能にしてよい。さらに、場合によっては、MRシステム212は、測深器9700のそれぞれで仮想要素を提示して、本明細書に記載のアイテム識別及びアイテム追跡を可能にしてよい。
図97に示す手術アイテムのセットはまた、各サイズの測深器9700の隣に穿孔ツールを含んでよい。手術手順に従って、特定の穿孔ツール(例えば、穿孔ツール9702)が、術前計画に従って使用される最大の測深器サイズに対応するとして、術前手術計画によって規定されてよい。言い換えると、図97に示す手術アイテムのセットは、徐々にサイズが変わる穿孔ツールを含むが、穿孔ツールの1つのみが、例えば、使用される最大の測深器に対応する手順で使用されてよい。この理由のために、穿孔ステップに必要な特定の穿孔ツールのみを区別するための、例えば、可視化デバイス213による手術アイテム識別は、正確な手術アイテムが確実に使用されることを支援するために非常に望ましい場合がある。さらに、本明細書に記載の手術アイテム追跡及び検証は、不正確なサイズの穿孔ツールを使用するシナリオを回避するのを助け得る。図105は、図97に示す手術アイテムのセットと類似の手術アイテムのセットの図である。図105は、例えば、手術ステップに必要な特定の手術アイテムを識別または区別するために、オーバーレイとして可視化デバイス213によって提示され得る1つの例示的な仮想要素10500を示す。図106は、図97に示す手術アイテムのセットと類似の手術アイテムのセットの別の例示的な図である。図106は、手術手順の次のステップに必要な手術アイテムを識別または区別するために、例えば、所与の手術アイテムの矢印及び/または輪郭線として、可視化デバイス213によって提示される別の例示的な仮想要素10600を示す。図105及び図106は、仮想要素10500及び10600の2つの例を示すが、多くの他のタイプの仮想要素が、手術アイテムを識別するために可視化デバイス213によって使用及び提示されてよい。
図98は、人間の上腕骨に対して行われる圧縮またはラスピング手順の側面概念図である。図99は、徐々に大きくなる圧縮ツールのセット9900を含む手術アイテムのセットの図である。本開示の技術は、各圧縮ツール9900で拡張機能(加速度計、光源、または他のセンサ等)を使用して、本明細書に記載のアイテム識別及びアイテム追跡を可能にしてよい。さらに、場合によっては、MRシステム212は、各圧縮ツール9900上に仮想要素を提示して、本明細書に記載のアイテム識別及びアイテム追跡を可能にしてよい。
アイテムはまた、例えば、圧縮ツール9900のハンドル9902への取付を必要とするアセンブリを必要とし得る。アイテムのアセンブリは、看護師が着用している可視化デバイス213に示される取扱説明の図、アニメーション、またはビデオによって、看護師に示されてよい。取扱説明の図、アニメーション、またはビデオの表示は、MRまたはARディスプレイのウィジェットまたはアイコンを選択することによって開始されてよく、その結果、このような説明がリアルタイムで必要な場合、アイテムの適切なアセンブルの仕方を看護師に示すことができる。取扱説明の図、アニメーション、またはビデオは、手順のステップを示すように提示されてよく、アイテムのアセンブリを示す取扱説明の図、アニメーション、またはビデオは、看護師にとって非常に役に立ち得る。
ラスピングツール9900は、長いステムのラスピング要素と短いステムのラスピング要素との両方を有する両面があるツールを含んでよい。従って、(例えば、複合現実で照明による、または、仮想要素の仮想のオーバーレイによる)アイテム識別は、手順で使用すべきラスピング側(例えば、長いステムまたは短いステム)も識別してよい。これは、長いステムのラスピングが術前計画で規定されている時は長いステムのラスピングを使用するのを確実にするために、または、短いステムのラスピングが術前計画で規定されている時は短いステムのラスピングを使用するのを確実にするために、看護師にとって非常に役立ち得る。各ラスピングツールが両面を有し、手順で片側のみを使用する時、例えば、ラスピングツール内の照明または複合現実情報を介して、ラスピングツールだけでなく、ラスピングツールの使用する部分を識別することは非常に望ましい場合がある。従って、ラスピングツールは、ラスピングツールの一方の側を、ラスピングに適した側であるとして識別するように選択的に点灯するように構成されてよい、または、可視化デバイス213は、ラスピングツールの特定の側をラスピングに適した側であるとして識別する仮想情報を提示するように構成されてよい。手術アイテムのアセンブリも、短いステムのラスピングまたは長いステムのラスピングに関するラスピングツールのアセンブリを明瞭に示すように、(例えば、看護師の複合現実提示の取扱説明の図、アニメーション、またはビデオを介して)示されてよい。
いくつかの例では、例えば、術前計画に従って、本明細書に記載のアイテム識別技術は、測深プロセスで使用される最後の測深器より小さい3つのサイズの特定のラスピングツールを識別してよい。ラスピングは、十分な固定が達成されるまで順次行われてよい。十分な固定は、インサータのハンドルのわずかなトルク運動によって評価することができる。コンパクタまたはラスピングツールは、患者の骨の中で動くべきではない。従って、最後のラスピングツールのサイズは、術前手術計画によっては規定されず、術中プロセスの間に規定または選択され得るので、一連のラスピングツールは、可視化デバイス213等のMRデバイスを介した固有の色、視覚的効果、またはテキストオーバーレイを用いて、本開示の技術によって識別されてよい。さらに、ラスピングのためのアイテム識別技術は、手順中、十分なレベルの固定を達成し、医師によって決定され得る最後のラスピングツールのサイズを看護師に(仮想要素を介して)(テキスト、アニメーションまたはビデオで)説明または識別してよい。図107は、図99に示す手術アイテムのセットと類似の手術アイテムのセットの図である。図107は、手術ステップに必要な特定の手術アイテムを識別または区別するために、例えば、オーバーレイとして可視化デバイス213によって提示され得る仮想要素10700及び10702の1つの例示のセットを示す。仮想要素10700及び10702は、アセンブリを必要とする場合があり、場合によっては、可視化デバイス213が、(看護師よって選択可能であり、必要な場合のみ示され得る)アセンブリプロセスのデモンストレーションを行う説明のビデオを提示してよい。さらに、仮想要素10702は、両面のある手術要素の手術手順で使用すべき側を看護師に知らせるように、手術アイテムを識別するだけでなく、手術アイテムの側(この場合、ラスピングツールの長いステム)を識別するように構成されてよい。
図100は、人間の上腕骨に対して行われる表面プレーニング手順の側面概念図 である。図101は、徐々に大きくなる表面プレーニングツール10100のセットを含む手術アイテムのセットの図である。本開示の技術は、各表面プレーニングツール10100で拡張機能(加速度計、光源、または他のセンサ等)を利用して、本明細書に記載の手術アイテム識別及び手術アイテム追跡を可能にしてよい。さらに、場合によっては、追加でまたは代替的に、可視化デバイス213は、各圧縮ツール9900上に仮想要素を提示して、本明細書に記載の手術アイテム識別及び手術アイテム追跡を可能にしてよい。
表面プレーニングは、例えば、最後の測深器として使用される同様に最大サイズの測深器に対応し、且つ、使用される穿孔ツールに対応する表面プレーニングツール10100の1つだけの使用を伴ってよい。この理由のために、表面プレーニングステップに必要なその特定の表面プレーニングツールのみを区別する手術アイテム識別は、正確な手術アイテムが使用されることを確実にすることを支援するために非常に望ましい場合がある。さらに、本明細書に記載のアイテム追跡及び検証は、不正確なサイズの穿孔ツールが使用されるシナリオの回避を助け得る。図108は、図101に示す手術アイテムのセットと類似の手術アイテムのセットの図である。図108は、手術手順に必要な手術アイテムのセットを識別または区別するために、例えば、オーバーレイとして、可視化デバイス213によって提示され得る仮想要素10800及び10802の1つの例示のセットを示す。この例では、仮想要素10802は、所与の手術アイテムを、手術手順の現在の手術ステップで必要な手術アイテムであるとして、その手術アイテムを識別するために、他の識別される手術アイテム10800から区別するように構成されてよい。
図102は、手術手順で手術アイテムを識別する技術を示すフロー図である。図102の方法は、例えば、仮想要素を提示する可視化デバイス213を用いて、または、本明細書に記載の組み込み照明を含む手術アイテムを使用して、行われてよい。図102に示すように、方法は、手術アイテムのセットを視覚的に識別すること(10200)と、手術アイテムのセット内の特定の手術アイテムを視覚的に区別すること(10202)とを含む。いくつかの例では、手術アイテムのセットを視覚的に識別することは、各手術アイテムの光源を制御することを含んでよく、特定の手術アイテムを視覚的に区別することは、特定の手術アイテムの特定の光源を含んでよい。この場合、特定の手術アイテムを視覚的に区別することは、特定の光源を固有の色で制御すること、特定の光源を固有の照明効果で制御すること、または、特定の光源を固有の照度で制御することの1つまたは複数を含んでよい。
他の例では、手術アイテムのセットを視覚的に識別することは、第1の複合現実情報を可視化デバイスに提示することを含んでよく、この場合、特定の手術アイテムを視覚的に区別することは、第2の複合現実情報を可視化デバイスに提示することを含んでよい。この例では、特定の手術アイテムを視覚的に区別することは、第2の複合現実情報を固有の色で提示すること、第2の複合現実情報を固有の効果で提示すること、または、第2の複合現実情報を固有の照度で提示することの1つまたは複数を含んでよい。上記のように、他の視覚的効果も使用されてよい。しかしながら、より一般的には、手術アイテムのセットを識別することと、特定の手術アイテムを視覚的に区別することとは、複合現実情報を提示することを含んでよい。
いくつかの例では、可視化デバイス213によって手術アイテム上に提示された複合現実情報は、手術アイテムの第1のサブセット、手術アイテムの第2のサブセット、及び手術アイテムの第3のサブセットを区別し、手術アイテムの第1のサブセットは、既に使用された手術アイテムに対応し、手術アイテムの第2のサブセットは、現在使用している手術アイテムに対応し、手術アイテムの第3のサブセットは、今後必要な手術アイテムに対応する。本明細書に記載のように、手術アイテムのセットは、整形外科的肩修復手術用の測深器を含んでよく、手術アイテムは、現在使用する測深器を含んでよい。
いくつかの例では、手術アイテムのセットは、整形外科的肩修復手術用の測深器と、整形外科的肩修復手術用の1つまたは複数の穿孔ツールとを含む。いくつかの例では、手術アイテムのセットは、整形外科的肩修復手術用の測深器と、整形外科的肩修復手術用の1つまたは複数の穿孔ツールと、整形外科的肩修復手術用の1つまたは複数の圧縮ツールとを含んでよい。いくつかの例では、手術アイテムのセットは、整形外科的肩修復手術用の測深器と、整形外科的肩修復手術用の1つまたは複数の穿孔ツールと、整形外科的肩修復手術用の1つまたは複数の圧縮ツールと、整形外科的肩修復手術の1つまたは複数のプレーニングツールとを含んでよい。
さらに他の例では、可視化デバイス213は、仮想要素を提示してよく、または、手術アイテムは、必ずしもセット全体を照らさずに、アイテムベースで本明細書に記載の組み込み照明によって識別されてよい。例えば、可視化デバイス213は、手順において各手術アイテムを(アイテムごとに)順次、識別するために、手術プロセスと共に順次、仮想要素を提示してよい。または、組み込まれた照明は、手順において各手術アイテムを(アイテムごとに)順次、識別するために、手術プロセスに従って各手術アイテムを順次、照らすように、外部処理デバイスによって制御されてよい。
図103は、手術手順において手術アイテムを識別し、手術の段階に基づいて、このような手術アイテムの識別を変更するための方法を示すフロー図である。図103の方法は、例えば、仮想要素を提示する可視化デバイス213を使用して、または、本明細書に記載の組み込み照明を含む手術アイテムを使用して、行われてよい。図103に示すように、方法は、手術アイテムの第1のサブセットを、手術手順で以前使用したとして視覚的に識別すること(10300)と、手術アイテムの第2のサブセットを、手術手順で現在使用しているとして視覚的に識別すること(10302)とを含む。例えば、MRを使用して可視化デバイス213によって、または、組み込み照明を有する手術アイテムによって行われる方法は、手術アイテムの第3のサブセットを、手術手順で今後使用するために必要であるとして視覚的に識別すること(10304)をさらに含んでよい。
図103の例によると、医療手術の次のステップで(10306の「はい」分岐)、「現在の手術アイテム」は、第2のサブセットから第1のサブセットに移動し、次の「後続の手術アイテム」が、第3のサブセットから第2のサブセットに移動する(10308)。例えば、可視化デバイス213の1つまたは複数のプロセッサは、看護師によるフィードバック及び/または視覚的アイコン選択に基づいて手順を追跡してよく、このようなフィードバックまたはアイコン選択は、可視化デバイス213に、1つのセットから次のセットに手術アイテムの割当を移動させてよい。または、手術アイテムに組み込まれた照明を制御する外部プロセッサが、看護師によるフィードバックに基づいて手順を追跡するように構成されてよく、このようなフィードバックによって、外部プロセッサは、1つのセットから別のセットに手術アイテムの割当を移動させることができる。
このように、手術の段階が変わると、現在使用するために、新しい手術アイテム(すなわち、次の「後続の手術アイテム」)を看護師に対して識別するように、アイテム識別(すなわち、アイテム識別のための照明または仮想要素の提示)も同様に、変わってよい。手術アイテムを視覚的に識別する方法は、手術アイテム内のライトの使用、可視化デバイス213によって提示される複合現実情報の使用、または、その両方を含む本明細書に記載の例のいずれかに対応してよい。
様々な例を記載してきた。例えば、センサ、加速度計及び光源等の拡張機能を備えて設計された手術アイテムを活用する手術手順に関して、アイテム識別及び追跡技術を記載した。さらに、手術手順中のアイテム追跡及びアイテム識別に使用する複合現実技術も記載した。自動化を使用する手術手順の記録及びドキュメンテーションの技術も記載した。
本開示のアイテム識別技術は、術前計画に従って外部デバイスによって制御し得るライトを手術アイテム(例えば、ツール)上自体に使用するとして記載した。代替的にまたは追加で、複合現実を使用、例えば、可視化デバイス213上に1つまたは複数の仮想要素を提示して、術前計画に従って規定し得る手術手順で必要な手術アイテムを識別する本開示のアイテム識別技術を記載した。一部の状況では、しかしながら、外科医は、術前計画から外れる場合がある。この場合、本開示の技術は、外科医が行った変更に従って、アイテム識別プロセスを適合または調整してよい。さらに、手術アイテム選択及び/または手術アイテム使用を用いて、術前計画からのこのような逸脱を識別してよい。言い換えると、いくつかの例では、現在使用している手術アイテムを使用して、次に使用する可能性が高い手術アイテムを識別してよい。言い換えると、処理デバイス8304は、現在使用している手術アイテムに基づいて、次の手術アイテムを選択するように、且つ、次の手術アイテムを識別する仮想情報を提示するように構成されてよい。例えば、コンパクタサイズ3を使用している場合、システムはこの情報を使用して、次の手術アイテムとしてコンパクタサイズ4を勧めてよい、または、場合によっては、穿孔ツールサイズ3を使用するよう勧めてよい、または、場合によっては、外科医が次に必要とする2つの代替の手術アイテムとして強調表示してよい。手術手順で現在使用している手術アイテムは、次に使用する可能性が高い手術アイテムを高度に示す場合があり、図83に示す例の処理デバイス8304または図84に示す例の可視化デバイス213は、可能性の高い次の手術アイテム(または、幾つかの可能性のある手術アイテム)を現在使用中の手術アイテムに基づいて識別するように構成されてよい。
さらに、手術手順が、手術室において術前手術計画から外れる時、図83に示す例の処理デバイス8304または図84に示す例の可視化デバイス213は、手術プロセスが手術室において医師によって変更されたと仮定して、手術プロセスに必要となる可能性の高い異なる手術アイテムを識別するように、アイテム識別プロセスを変更または適合してよい。
例えば、図83に示す例の処理デバイス8304または図84に示す例の可視化デバイス213は、(例えば、可視化または外科医の仮想ガイダンスとのインタラクションによって)行っているステップを追跡し、次はどの手術ステップであるかを予測するために情報モデルを記憶してよい。次に、図83に示す例の処理デバイス8304または図84に示す例の可視化デバイス213は、この予測に基づいて、次に使用する手術アイテムを識別してよい。情報モデルは、ステップからの分岐を考慮する決定木を含んでよい(例えば、ステップ4は、ステップ3でどちらが起こるかに応じて、ステップ4aまたはステップ4bになる)。分岐に対する手術アイテムは、異なってよく、手術アイテムは、どちらの分岐が予測されるかに従って、手術アイテム上の照明によって、または、このような手術アイテム上または、そのまわりに提示される仮想情報によって識別されてよい。このようにして、仮想ガイダンスシステムまたは照明の使用(及び、関連する情報モデル及び予測)によって、リアルタイムでの手術手順の変更により適応できるアイテム追跡方法を提供することができる。さらに、アイテム追跡は、本明細書に記載の仮想ガイダンスと同期されて、例えば、仮想ガイダンスステップに基づいてアイテム予測を提供してよい。異なる仮想ガイダンスステップに対する手術アイテム予測は、可視化デバイス213のメモリに(または、処理デバイス8304のメモリに)記憶することができる。
いくつかの例では、(手術計画の現在のステップを識別することによって)次のステップを予測するために、且つ、(現在のステップまたは現在使用している手術アイテムに基づいて)次に必要な手術アイテムを予測するために、カメラまたは他のセンサ入力に基づいて、例えば、場合によっては、機械学習を使用して外科医が所与の手術手順内のどこ(例えば、どのステップ)にいるかを学習及び予測して、アイテム予測及びアイテム識別を規定する情報モデルを規定することができる。情報モデルは、一連のステップを含んでよい、または、手術中に生じる異なるイベントに基づいて異なるシナリオを記述できるという点で、より高度な情報を含んでよい。いくつかの例では、情報モデルは、手順の次のステップを(現在のステップを識別することによって)予測するのを支援する、及び/または、次に必要な手術アイテムを(現在のステップまたは現在使用している手術アイテムに基づいて)予測するのを支援する決定木構造を規定してよい。決定木は、可視化デバイス213のメモリに(または、処理デバイス8304のメモリに)記憶することができ、この決定木に基づいて、可視化デバイス213は、次の手術ステップの予測を提示してよく、または、可視化デバイス213もしくは処理デバイス8304は、手術手順に必要な次の(または、可能な次のセットの)手術アイテム(複数可)の予測を提示または識別してよい。
いくつかの例では、処理デバイス8304は、手術手順の検出された変更に基づいて、及び、機械学習に基づいて、次の手術アイテムを選択してよく、次の手術アイテムを識別する第2の仮想情報を提示してよい。例えば、処理デバイス8304(または可視化デバイス213)は、多くの手術手順に機械学習を適用してよく、過去の手術手順で行われた決定及び変更を使用して、機械学習を駆動し、それによって、次の手術アイテムを予測してよい。場合によっては、機械学習は、特定の外科医によって行われた過去の手術手順、決定及び変更に基づいてよい。言い換えると、特定の外科医によって行われた過去の手術手順、決定及び変更は、メモリに記憶されてよく、次の手術アイテムの予測を支援できる機械学習アルゴリズムを駆動するためのデータとして使用されてよい。このようにして、機械学習は、所与の手順に対して必要な次の手術アイテムの予測を支援することができ、予測は、特定の外科医によって行われた過去の手術手順、決定及び変更等、履歴データに基づいてよい。場合によっては、様々な外科医の履歴データが、この機械学習に使用されてよい、例えば、それによって、多くの外科医によって行われた過去の手術手順、決定及び変更を使用して、次の手術アイテムの予測を支援できる機械学習アルゴリズムを駆動することができる。例えば、特定の変更が、手術室で手術計画に対して行われ、同様の変更が、1つまたは複数の以前の手術で手術計画に対して行われていた場合、(外科医が変更を行った後)以前の手順の後続のステップで使用された手術アイテムは、現在の手術手順の同様の後続のステップで必要とされる手術アイテムの十分な予測となり得る。機械学習アルゴリズムを実施することによって、処理デバイス8304(または、可視化デバイス213)は、手順に必要な手術アイテムを、その手順が術中に変更された後、予測するように構成されてよい。
一例として、決定木は、上腕骨準備に対して規定されてよく、解剖学的準備のための仮想ガイダンス及び手術アイテム選択には、逆解剖学的準備(reverse anatomical preparation)とは異なる分岐を提供してよい。外科医が、手術室で計画を変更、例えば、解剖学的修復のための術前手術計画から逆解剖学的修復に変更する場合、可視化デバイス213は、次の手術ステップの予測を調整してよい、または、可視化デバイス213または処理デバイス8304は、手術に必要な次の(または、次の可能なセットの)手術アイテム(複数可)の予測を調整してよい。
別の例として、可視化デバイス213及びセンサを備えた高度な手術アイテムは、実際の手術パラメータを外科医が実際に行ったことに基づいて、ドキュメンテーションしてよく、仮想ガイダンス及び/または手術アイテム選択の予測は、術前手術計画に規定されたものから手術室で実際に行われているものに変更されてよい。
さらに別の例として、アイテム予測は、使用している手術アイテムのサイズにリンクされてよい。従って、特定のサイズが以前のステップで使用された場合、次の手術アイテムは、同じサイズの異なる手術アイテムまたは異なるサイズの類似の手術アイテムが選択される必要がある。手術アイテム予測は、現在使用されている手術アイテムに基づいてよく、場合によっては、現在使用中の手術アイテムのサイズに基づいてよい。さらに、使用される手術アイテムまたは手術アイテムサイズが、術前計画で規定された手術アイテム及びサイズに対して手術室で変更される場合、可視化デバイス213は、次の手術ステップの予測を調整してよい、または、可視化デバイス213もしくは処理デバイス8304は、手術に必要な次の(または、可能な次のセットの)手術アイテム(複数可)の予測を調整してよい。可視化デバイス213上の仮想ガイダンスの及び仮想提示のこれらの及び他の例は、Wright Medical社製のBLUEPRINT(商標)システムのようなソフトウェアシステムを介して実施されてよい。
手術アイテムの特定のセットは、例示目的で記載及び示した。しかしながら、この技術は、広範な手術手順及び広範な手術アイテムに有用であり得る。この技術は、肩の手術、足首の手術、膝の手術、股関節手術、手首の手術、手もしくは指の手術、足もしくは足指の手術、または、任意の関節修復手術またはオーグメント使用(augmentation)等の整形外科手術にとって特に有用であり得る。この技術は、広範な整形外科手術で有用であり得るが、解剖学的または逆解剖学的肩再建手術の両方で特に有用であり得る。実際、この技術は、逆肩関節形成、オーグメント使用(augmented)逆肩関節形成、標準的な全肩関節形成、オーグメント使用(augmented)全肩関節形成、半球肩手術(hemispherical shoulder surgery)、または他のタイプの肩の手術に役立ち得る。図86~図108は、特定の肩の手術ステップの態様を記載するが、本開示の技術は、他のタイプの肩の手術に適用されてよい。さらに、足首の手術は、ドリルによる穴開け、切断、インプラント部位の準備と、インプラントを患者の距骨及び脛骨に取り付けるために複数のツール及びジグの使用を伴い得るので、本開示のツール追跡技術が、特に、様々な異なるツールが手順で使用される足首の手術に利用されてよい。これらの及び他の例は、本開示の範囲内にある。
関節を損傷した患者は、関節に関連する手足の可動域に制限を受けることが多い。例えば、左肩を損傷した患者は典型的に、肩を損傷していない人にとって一般的な角度及び位置の範囲まで左腕を動かすことができない。別の例では、足首を損傷した患者は、患者の下腿に対して特定の角度以上に足を上げ下ろしできない場合がある。このような損傷は、関節炎、スポーツによる怪我、外傷等の様々な状態及び出来事によって引き起こされ得る。
術前フェーズ302中(図3)、ヘルスケア専門家は、患者の状態の評価の一部として、関節に関連する手足の可動域を評価してよい。例えば、ヘルスケア専門家は、関節に関連する手足の可動域に基づいて、患者の関節の損傷の重症度または損傷のタイプを判断できる場合がある。さらに、ヘルスケア専門家は、手足の可動域で、手足に関連する関節の患者が痛みを感じる点を特定するために、患者に質問を行ってよい。
患者が手足に関連する関節に手術を受けた後(すなわち、術後フェーズ308中、ヘルスケア専門家は、手足の可動域を調べたい場合がある。例えば、手足は一般的に、術後直ぐは可動性が制限されるが、手足の可動域は、患者が治るにつれて、増加しなければならない。特定の時間ウィンドウ内で患者の手足が期待される可動域に達しないことは、追加の介入または理学療法が必要な可能性があるというサインであり得る。従って、追加の介入または理学療法が必要であるかどうかをチェックするために、患者は一般的に、ヘルスケア専門家を訪れ、ヘルスケア専門家は、手足の可動域を診察してよい。
ある例では、手足の可動域が完全になるチャンスを増やすのを助けるために、患者は、患者が特定の方法で手足を動かすことを必要とする理学療法を受ける場合がある。例えば、理学療法士は、患者に特定の可動域で手足を動かすように要求する場合がある。いくつかの例では、術後フェーズ中、患者は、理学療法士または他のヘルスケア専門家が存在する場所以外に理学療法の運動を家庭でも行うことを要求される場合がある。例えば、患者が左肩に肩関節形成術を受けた例では、患者は、患者が患者の矢状面、前頭面、または横断面に対して特定の角度まで左腕を動かそうと試みることを伴う理学療法運動を指示される場合がある。
関節に関連する手足の可動域の評価を行う時にヘルスケア専門家と患者は、様々な問題に直面する。例えば、術前フェーズ302及び術後フェーズ308中(図3)、ヘルスケア専門家が手足の可動域を正確に測定し評価することは難しい場合がある。さらに、患者が手足に関連する関節に痛みを感じる手足の位置をヘルスケア専門家が正確に記録することは難しい場合がある。同様に、患者が決められた可動域で手足を動かしているかどうかを患者が知ることは難しい場合がある。さらに、理学療法、または、ヘルスケア専門家による診察に頻繁に通院することは、患者にとって不便であり、費用がかかる場合がある。しかしながら、このような通院をインタラクティブな遠隔治療セッションまたは遠隔モニタリングによって回避することは困難であり得る。なぜならば、訓練された身体介助なく、患者が指定された角度に正確に手足を動かすことは難しい場合があり、患者が可動域を正確に説明することは難しい場合があり、且つ、患者が痛みを感じる手足の位置を説明することも難しい場合があるからである。さらに、患者が提供した可動域及び痛みに関する情報をヘルスケア専門家が解釈及び検証することも困難な場合がある。例えば、ヘルスケア専門家が患者が提供した情報から、患者が提供した情報が間違っているかどうか、または、実際に介入の必要があるかどうかを知ることも難しい場合がある。
本開示は、これらの問題の1つまたは複数に対処し得る技術を記載する。例えば、本開示の例によると、コンピューティングシステムは、患者の手足に接続された動作追跡デバイスの動きを記述する動作データを取得してよい。この例では、コンピューティングシステムは、動作データに基づいて、手足の可動域を決定してよい。さらに、この例では、コンピューティングシステムは、患者または患者のアバタに重ね合わせられた手足の可動域のエクステンデッドリアリティ可視化を生成してよい。手足の可動域のエクステンデッドリアリティ可視化を見ることによって、患者とは別個のユーザ、または、患者に加えてユーザが、手足の可動域を可視化及び説明することができ得る。可動域のエクステンデッドリアリティ可視化は、複合現実(MR)可視化または仮想現実(VR)可視化であってよい。
図109は、本開示の技術による、患者の手足の可動域のエクステンデッドリアリティ可視化を生成するための例示のシステム10900を示すブロック図である。図109の例に示すように、システム10900は、コンピューティングシステム10902と、1つまたは複数のエクステンデッドリアリティ(XR)可視化デバイス10904A~10904Nのセット(集合的に、「XR可視化デバイス10904」)と、動作追跡デバイス10906とを含む。他の例では、システム10900は、より多い、より少ない、または異なるデバイス及びシステムを含んでよい。いくつかの例では、コンピューティングシステム10902、XR可視化デバイス10904、及び動作追跡デバイス10906は、インターネット等の1つまたは複数の通信ネットワークを介して通信してよい。いくつかの例では、動作追跡デバイス10906は、コンピューティングシステム及び/または1つまたは複数のXR可視化デバイス10904と直接無線通信リンクを介して通信してよい。
コンピューティングシステム10902は、サーバコンピュータ、パーソナルコンピュータ、スマートフォン、ラップトップコンピュータ、及び他のタイプのコンピューティングデバイス等、様々なタイプのコンピューティングデバイスを含んでよい。図109の例では、コンピューティングシステム10902は、1つまたは複数の処理回路10908、データストレージシステム10910、及び1つまたは複数の通信インタフェース10912A~10912Nのセット(集合的に、「通信インタフェース10912」)を含む。データストア10910は、動作データ等のデータを記憶するように構成される。通信インタフェース10912は、コンピューティングシステム10902が、XR可視化デバイス10904及び動作追跡デバイス10906等、他のコンピューティングシステム及びデバイスに(例えば、無線または有線で)通信するのを可能にし得る。説明を簡単にするために、本開示は、処理回路10908、データストア10910、及び通信インタフェース10912が行うアクションを、コンピューティングシステム10902が全体として行うとして記載する場合がある。
整形外科手術システム100(図1)の様々なコンピューティングシステムは、コンピューティングシステム10902を含んでよい。例えば、仮想計画システム102、術前及び術後モニタリングシステム112、及び/または整形外科手術システム100の他のサブシステムは、コンピューティングシステム10902を含んでよい。いくつかの例では、XR可視化デバイス10904の1つまたは複数は、コンピューティングシステム10902の1つまたは複数のコンポーネントを含む。例えば、XR可視化デバイス10904の1つまたは複数は、コンピューティングシステム10902の処理回路10908の1つまたは複数を含んでよい。従って、いくつかの例では、コンピューティングシステム10902によって行われているとして本開示に記載されているアクションの一部または全ては、XR可視化デバイス10904の1つまたは複数の処理回路によって行われてよい。いくつかの例では、XR可視化デバイス10904は、MR可視化デバイス213(図2)等のMR可視化デバイスを含む。いくつかの例では、XR可視化デバイス10904は、VR可視化デバイスを含む。
動作追跡デバイス10906は、患者の手足の動きを検出するように構成されたデバイスである。例えば、いくつかの例では、動作追跡デバイス10906は、患者の手足に接続され、動作追跡デバイス10906の動きを検出するデバイスを含んでよい。動作追跡デバイス10906は、例えば、複数の次元(例えば、3次元)で動作追跡デバイス10906の加速を追跡する慣性計測装置(IMU)を有するデバイスであってよい。いくつかの例では、IMUはまた、(例えば、重力ベクトルまたは磁極に対する)動作追跡デバイス10906の向きを追跡してよい。動作追跡デバイス10906は、様々なタイプのデバイスであってよい、または、それらを含んでよい。例えば、動作追跡デバイス10906は、スマートウォッチ、スマートフォン、リング、ブレスレット、アンクレット、ヘッドマウントデバイス、眼鏡、特殊用途の動作追跡デバイス、またはデバイスの動きを検出するように構成された他のタイプのデバイスであってよい、または、これらを含んでよい。
動作追跡デバイス10906が、患者の手足に接続され、動作追跡デバイス10906の動きを検出するデバイスである、または、それを含む例では、動作追跡デバイス10906は、様々な方法で患者の手足に接続されてよい。例えば、動作追跡デバイス10906は、手首、足首、大腿部、足、足指、指、頭、膝、ふくらはぎ、上腕、手、顎、または患者の他の身体の部分に接続されてよい。動作追跡デバイス10906は、様々な方法で患者の手足に接続されてよい。例えば、動作追跡デバイス10906は、患者が手に持ってよい(例えば、患者が患者の片方の手に動作追跡デバイス10906を持っている場合である)、患者にストラップで留めてよい(例えば、動作追跡デバイス10906が、患者の手首または足首に着用されている時である)、接着剤で取り付けられてよい、重力及び/または圧迫によって患者に載せられていてよい(例えば、動作追跡デバイス10906が眼鏡またはヘッドウェアを含む時である)、圧迫によって適所に保持されてよい(例えば、リングまたはクランプとして着用されている時である)、または、動作追跡デバイス10906が患者の手足と共に動くように他の方法で患者の手足に接続されてよい。いくつかの例では、動作追跡デバイス10906は、較正位置(例えば、腕を真っ直ぐ下ろす)で動きを開始し、較正位置に対する動きを追跡するように患者に指示してよい。
いくつかの例では、動作追跡デバイス10906は、1つまたは複数のカメラまたは手足の動きを視覚的に検出する他のデバイスを含んでよい。例えば、いくつかの例では、1つまたは複数のカメラは、患者が着用するXR可視化デバイスに組み込まれてよい。1つまたは複数のカメラが患者が着用するXR可視化デバイスに組み込まれたいくつかの例では、患者は、カメラが患者の手足の動きの画像をキャプチャできるように、鏡の前にいる必要があり得る。
本開示の例によると、コンピューティングシステム10902は、患者の手足の動きを記述する動作データを取得してよい。例えば、コンピューティングシステム10902は、患者の手足の動きの間、動作追跡デバイス10906のIMUによって生成されたIMU信号を含む動作データを取得してよい。いくつかの例では、コンピューティングシステム10902は、患者の手足の動きを示すビデオデータを取得してよい。いくつかの例では、ストレージシステム(例えば、ストレージシステム206、メモリ215等)は、動作データを記憶してよい。
コンピューティングシステム10902は、動作データに基づいて、手足の可動域を決定してよい。例えば、コンピューティングシステム10902は、IMU信号に基づいて、手足の動作中、動作追跡デバイス10906がどのくらい移動するかを決定してよい。この例では、動作追跡デバイス10906の手足に関連する関節からの事前に決定した距離に基づいて、コンピューティングシステム10906は、手足の可動域を次式のように決定してよい
Figure 0007247234000002
上記等式において、lは、動作追跡デバイス10906が手足の動作中に移動した距離、rは、手足に関連する関節から動作追跡デバイス10906までの距離である。コンピューティングシステム10902が患者の手足の動きを示すビデオデータを取得する例では、コンピューティングシステム10902は、手足の主軸を識別するために、いくつかの例では、患者の適用可能な軸(例えば、前頭軸、左右軸、矢状軸等)を識別するために、ビデオデータに画像分析を適用してよい。例えば、コンピューティングシステム10902は、訓練されたニューラルネットワーク(例えば、畳み込みニューラルネットワーク)を適用して、手足を含む画像内の領域を認識してよい。この例では、コンピューティングシステム10902は次に、認識された領域の最も長い寸法を手足の主軸として決定してよい。いくつかの例では、コンピューティングシステム10902は、適用可能な軸を示すユーザ入力を示すものを受信してよい。いくつかの例では、コンピューティングシステム10902は、ニューラルネットワーク(例えば、畳み込みニューラルネットワーク)を適用して、適用可能な軸を決定してよい。このような例では、コンピューティングシステム10902は、これらの軸を比較して可動域を画定する角度を決定してよい。
手足の異なる動きの範囲が、重要な場合がある。例えば、図110は、患者の肩で生じる患者の右腕の例示的な動作を示す概念図である。図110に示すように、患者が腕を矢状面で上方に上げると屈曲が生じ、患者が腕を矢状面で下方に下げると、伸展が生じる。患者が肩関節を通る前頭面を超えて矢状面で腕を動かすと、過伸展が生じる。さらに、図110に示すように、外転は、前頭面で身体の中心から離れるように腕を上げる。内転は、前頭面で身体の中心に向かうように腕を動かす。図110に示すように、内旋/内側への回転と外旋/外側への回転とは、腕を肩で回転させた時に生じる。
いくつかの例では、患者は、(例えば、動作追跡デバイス10906によって)あるタイプの動きを行うように指示されてよく、患者は、あるタイプの動きを行うように促されたことに応答して、動きを行ってよい。例えば、動きのタイプは、手足に関連する関節を通る面での手足の動きであってよい。例として、肩の可動域に関して、患者は、(例えば、動作追跡デバイス10906によって)第1の運動で、屈曲点から伸展点まで、可能な場合は、過伸展点まで腕を動かすように指示され、第2の運動で、外転点から内転点まで腕を動かすように指示され、第3の運動で、外旋点/外側への回転点から内旋点/内側への回転点まで腕を動かすように指示されてよい。別の例では。足首の可動域について、患者は、(例えば、動作追跡デバイス10906によって)1つの運動で、底屈点から背屈点まで足を動かすように指示されてよい。
各運動の間、動作追跡デバイス10906は、これらの点を追跡して、患者の可動域の表現を形成してよい。例えば、外転から内転、または、その逆の動きを行うように患者に指示すると、動作追跡デバイス10906は、整形外科医、理学療法士、または他のユーザが見直すために、外転の最大点と内転の最大点を示すデータを記録してよい。別の例では、底屈から背屈への動きを行うように患者に指示すると、動作追跡デバイス10906は、底屈の最大点と背屈の最大点を示すデータを見直しのために記録してよい。例えば、動作追跡デバイス10906は、特定の面に対する最大点の角度、最大点の極座標、最大点の球座標、最大点のデカルト座標、または最大点を示す他のタイプのデータを記録してよい。例えば、一例では、動作追跡デバイス10906が移動する距離と動作追跡デバイス10906の手足に関連する関節からの距離とに基づいて、動作追跡デバイス10906は、適用可能な平面に対する角度を(例えば、上記等式を用いて)決定してよく、それによって、動作追跡デバイス10906の手足に関連する関節からの距離と角度とによって規定される一対の極座標を決定してよい。動作追跡デバイス10906は同様に、整形外科医、理学療法士、または他のユーザが見直すために、動作追跡デバイス10906の指示で患者が行う対応する運動中の屈曲及び伸展の最大点の相対座標または絶対座標と、外旋/外側への回転及び内旋/内側への回転の最大点の相対座標または絶対座標とを記録してよい。
患者は、複数の次元で手足に関連する関節(articulation of a joint)を必要とするタイプの動きを行うように(例えば、動作追跡デバイス10906によって)指示されてよい。例えば、患者は、手を反対側の位置に動かす、腕を髪を解くように動かす(または、他の方法で手を頭に持って来る)、または動きを行っている関連する腕の近くの患者の身体の後ろポケット(または、臀部)に手を置く等、日常の活動に関連する動きを行うように指示されてよい。これらの一般的な動きのそれぞれについて、動作追跡デバイス10906は、整形外科医、理学療法士、または他のユーザが見直すために、これらの動きのそれぞれに関連付けられた相対座標または絶対座標を記録してよい。患者の他の関節もしくは手足または他の身体の部分の類似の一般的な動きに関連付けられた可動域を評価してよい。
さらに、コンピューティングシステム10902は、手足の可動域のXR可視化(例えば、MR、ARまたはVR可視化)を生成してよい。XR可視化デバイス10904は、ユーザに表示するために、手足の可動域のXR可視化を出力してよい。XR可視化デバイス10904は、手足の可動域のXR可視化が患者または患者のアバタの画像に重ね合わせられるように、手足の可動域のXR可視化を出力してよい。いくつかの例では、患者の画像は、患者に直接または間接に反射する光によって形成された画像である。患者に間接的に反射する光によって形成された画像は、患者に反射した後、XR可視化デバイス10904の1つまたは複数の1つまたは複数のカメラによって検出される前に、鏡によって反射されてよい。いくつかの例では、患者の画像は、患者の以前キャプチャされた2次元または3次元の画像である。患者のアバタは、患者を表す仮想の人間の姿であってよい。
いくつかの例では、可動域のXR可視化は、可動域のXR可視化の一部の目に見える部分が患者の画像または患者のアバタに重なるようにユーザに見えるように、患者の画像または患者のアバタに重ね合わせられる。いくつかの例では、XR可視化の任意の目に見える部分が患者の画像または患者のアバタに重なるようにユーザに見えるかどうかに関わらず、患者の画像または患者のアバタを含むシーンに可動域のXR可視化が重ねられるという意味で、可動域のXR可視化は、患者の画像または患者のアバタに重ね合わせられる。
手足の可動域のエクステンデッドリアリティ可視化は、様々な形態を有してよい。例えば、一例では、手足の可動域のXR可視化は、手足の可動域の最も遠い点の間の角度にわたる仮想弧を含んでよい。いくつかの例では、仮想弧の焦点は、手足に関連する関節に位置してよい。この例では、手足が患者の左腕である場合、仮想弧は、患者の左肩のまわりの空間領域と重なって見えてよく、仮想弧の焦点は、患者の左肩関節に位置してよい。仮想弧の両端は、患者の身体の前頭面(例えば、外転及び内転中)、矢状面(例えば、屈曲及び伸展中、または内旋及び外旋中)、または患者の身体の他の平面等、患者の身体の特定の面で患者が左腕を動かすことができる限界に対応し得る。
手足の可動域のXR可視化がこのような仮想弧を含むいくつかの例では、仮想弧は、ラベル付きの角度を有する仮想分度器と関連付けられてよい。一部のこのような例では、仮想分度器のラベル付きの角度は、患者の身体の面または軸に対してであってよい。例えば、手足が患者の左腕であり、可動域が患者の前頭面である場合(例えば、外転及び内転中)、角度は、患者の左肩関節を通る前頭軸に対する角度であってよい。手足が患者の左腕であり、可動域が患者の矢状面である場合(例えば、屈曲及び伸展中)、角度は、患者の左肩関節を通る縦軸に対する角度であってよい。
仮想?分度器のラベル付きの角度は、仮想弧の両端の角度を含んでよい。いくつかの例では、仮想分度器のラベル付きの角度は、仮想弧の両端の角度の間の中間の角度を含んでよい。いくつかの例では、ラベル付きの角度は、XR可視化で目に見えてよいが、仮想弧自体は、XR可視化で目に見えない。いくつかの例では、仮想分度器は、仮想弧に組み込まれる、または、仮想弧とは別個である。複数の仮想弧があるいくつかの例では、仮想弧の全てに対して1つの仮想分度器があってよい、または、仮想弧の2つ以上に対して別個の仮想分度器があってよい。
さらに、手足の可動域のXR可視化が仮想弧を含むいくつかの例では、1つまたは複数のXR可視化デバイス10904は、仮想弧の焦点から半径上にあり、且つ仮想弧の平面上にある現在の線を出力してよい。このような例では、コンピューティングシステム10902は、現在の線が患者が仮想弧の平面で手足を動かすと、手足の主軸とリアルタイムで整列したままになるように、現在の線を更新する。このようにして、患者は、仮想弧に対する手足の現在の角度をより良く可視化できてよい。コンピューティングシステム10902は、現在の線のXR可視化を生成する時、IMU信号及び/またはビデオデータ等、動作データを使用して、手足の現在の位置を決定してよい。いくつかの例では、コンピューティングシステム10902は、患者が手足を動かすと、現在の線の位置を記録してよい。
XR可視化デバイス10904は、可動域のXR可視化を様々なユーザに提示してよい。例えば、いくつかの例では、XR可視化デバイス10904の1つは、可動域のXR可視化を患者に提示してよい。例えば、患者は、MR、ARまたはVR可視化デバイス等、XR可視化デバイスを着用、または他の方法で使用してよい。患者が使用するXR可視化デバイスがMR可視化デバイスである場合、MR可視化デバイスは、可視化デバイス213であってよい。この例では、患者がXR可視化デバイスを着用または他の方法で使用しながら、関節を見ると、XR可視化デバイスは、手足に関連する関節の可動域のXR可視化を提示する。患者がXR可視化デバイスを着用または他の方法で使用する別の例では、患者は、鏡の前に立ってよい。この例では、XR可視化デバイスは、患者の反射像、または患者の反射像に基づいて作成された患者のアバタに重ね合わせられた可動域のXR可視化を提示してよい。これは、患者の肩または首に関する場合のように、ユーザが関節または関節の可動域を特定の方向で直接見るのが難しい時、特に有用であり得る。
XR可視化デバイスがXR可視化を患者に提示する例では、エクステンデッドリアリティ可視化は、患者が達成する手足の実際の可動域の最も遠い点の間の角度にわたる第1の仮想弧を含んでよい。この例では、XR可視化はまた、手足の目標可動域の最も遠い点の間の角度にわたる第2の仮想弧を含んでよい。例えば、患者の左肩関節を通る前頭面で患者の左腕の以前記録された可動域は、患者の左肩関節を通る前頭軸に対して、-90度~10度の範囲であってよい。
従って、この例では、第1の仮想弧は、-90度~10度にわたってよい。この例では、-90度は、患者の左腕が体側でだらりと垂れ下がっていることに対応してよく、10度は、患者の左腕が水平よりわずかに上であることに対応してよい。しかしながら,患者の術後のリハビリテーションまたは術後評価の一部として、患者は、患者の左腕を前頭面で-90度~20度の範囲を動かそうと試みるように促されている場合がある。従って、この例では、第2の弧は、-90度~20度にわたってよい。いくつかの例では、第1の仮想弧と第2の仮想弧は色が異なっている。いくつかの例では、第1の仮想弧は、第2の仮想弧のセグメントとして、XR可視化で提示されてよい。
いくつかの例では、手足の目標可動域は、健康な人の一般的な可動域である。いくつかの例では、手足の目標可動域は、術後回復プロセスの特定の時点での患者の一般的な可動域である。いくつかの例では、手足の目標可動域は、ヘルスケア専門家、またはWright Medical社製のBLUEPRINT(商標)等のプラニングソフトウェアによって決定され得る患者固有の可動域である。患者は、XR可視化で第2の仮想弧を認識できるので、目標可動域の最大の角度を書面または口頭で告げられるだけよりも、自分が目標可動域を達成できるかどうかをより良く判断し得る。
上記のように、目標可動域は、患者に固有であってよい。従って、一例では、第1の患者に固有の第1の目標可動域があってよい。この例では、コンピューティングシステム10902は、第2の患者の手足の動きを記述する動作データを取得してよい。さらに、この例では、コンピューティングシステム10902は、動作データに基づいて、第2の患者の手足の可動域を決定してよい。コンピューティングシステム10902はまた、この例では、第2の患者が着用するエクステンデッドリアリティ可視化デバイスに表示するために、第2の患者または第2の患者のアバタの画像に重ね合わせられる第2の患者の手足の可動域の第2のXR可視化を生成してよい。第2のXR可視化は、第2の患者の手足の第2の目標可動域の最も遠い点の間の角度にわたる仮想弧を含んでよい。第2の目標可動域は、第1の目標可動域と異なる。
いくつかの例では、患者は、上記例の第2の仮想弧によって表される目標可動域等、手足の目標可動域の最も遠い点まで手足を動かそうと試みるように促されてよい。患者は、様々な方法で目標範囲の最も遠い点に達するように手足を動かそうと試みるように促されてよい。例えば、コンピューティングシステム10902は、患者が着用するXR可視化デバイスの1つまたは複数のスピーカに目標可動域で手足を動かすように患者を促す音を出力させてよい。いくつかの例では、コンピューティングシステム10902は、書かれたプロンプトが、患者に提示するXR可視化に現れるようにしてよい。
いくつかの例では、患者は、ヘルスケア専門家を積極的に関与させない事前にプログラムされた診断または理学療法セッションの一部として促されてよい。いくつかの例では、スマートフォン、または患者が使用する他のデバイスが、理学療法運動を行うように患者を促してよい、または、目標可動域を指定してよい。スマートフォン、スマートウォッチ、または他のデバイスはまた、可動域の記録に使用される動作追跡デバイス10906であってよく、よって、可動域運動を行うプロンプトまたは指示を患者に発することと、結果としての動作を表すデータを記録することの二重の目的を行う。詳細には、指定された可動域運動の手足の動き中、スマートフォンは患者が手に持ってよい、または、スマートウォッチまたは他のウェアラブルは、患者が着用してよい。
患者は、様々なイベントに応答して、目標範囲の最も遠い点に達するように手足を動かそうと試みるように促されてよい。例えば、患者及びヘルスケア専門家を含むインタラクティブなセッション中、コンピューティングシステム10902は、手足の目標範囲の最も遠い点に達するように手足を動かそうと試みるように患者を促すユーザ入力(例えば、音声コマンド、マウスクリック、タップ等)の指示をヘルスケア専門家から受信してよい。この例では、コンピューティングシステム10902は、ヘルスケア専門家からのユーザ入力の指示に応答して、目標範囲の最も遠い点に達するように手足を動かそうと試みるように患者に促してよい。いくつかの例では、患者及びヘルスケア専門家を含むインタラクティブな対面または遠隔の治療セッション中、ヘルスケア提供者は、口頭で患者を促してよい。
患者は、様々なデバイスからプロンプトを受信してよい。例えば、動作追跡デバイス10906は、患者を促してよい。例えば、動作追跡デバイス10906がスマートフォンまたはスマートウォッチである例では、動作追跡デバイス10906は、プロンプトを含む画面上メッセージを表示してよい。いくつかの例では、動作追跡デバイス10906は、手足の動きのタイプを行うように患者を促す音声を出力生成してよい。さらに、いくつかの例では、患者が着用するXR可視化デバイスが、患者を促してよい。一部のこのような例では、動作追跡デバイス10906及び/またはXR可視化デバイスは、コンピューティングシステム10902によって生成された信号に応答して、このようなプロンプトを生成してよい。
患者が受信するプロンプトは、様々なタイプの情報を含んでよい。例えば、プロンプトは、患者が行うべき運動を説明するテキスト、ビデオ及び/または音声を含んでよい。患者が着用するXR可視化デバイスがプロンプトを提示する例では、MRまたはAR可視化はプロンプトを含んでよい。
上記のように、患者及びヘルスケア提供者が直面する問題の1つは、患者が可動域で手足を動かす時、痛みを感じる点を患者が正確に言い表のは難しい場合があることである。患者が痛みを感じる点を知ることは、ヘルスケア提供者(及び/またはAIベースの診断ツール)が患者の状態に関して知ることを支援し得る。このような問題に対処するために、コンピューティングシステム10902は、XR可視化を患者に提示するいくつかの例で、可動域内の1つまたは複数の痛み点を示すユーザ入力の指示を受信してよい。患者は、手足が痛み点にある時、痛みを感じ得る。従って、患者は、手足が患者が痛みを感じる可動域内のポイントにある時、ユーザ入力による指示を提供してよい。ユーザ入力の指示を受信することに応答して、コンピューティングシステム10902は、動作データに基づいて、痛み点を示すデータを生成してよい。ここで、痛み点とは、患者が痛みを感じる患者の手足の位置(複数可)である。
例えば、手足が患者の左腕であり、コンピューティングシステム10902が、患者が左腕を左肩関節を通る前頭軸の上に10度上げた時にユーザ入力の指示を受信する場合、コンピューティングシステム10902は、患者の左腕が冠状軸より10度上にある時、患者は痛み点を有すると判断してよい。この例では、患者は、患者の左腕が前頭軸より10度上にある時、痛みが生じると指定する必要はない。そうではなく、患者は、患者が痛みを感じる時、入力するだけでよく、コンピューティングシステム10902が、患者が痛みを感じた時、患者の左腕の角度が10度であったと決定する。この技術を用いなければ、患者の左腕が前頭軸より10度上にある時、痛み点が生じると患者が正確に言う事は難しい場合がある。コンピューティングシステム10902は、(例えば、コンピューティングシステム10902のデータストレージシステム10910に)痛み点を示すデータを記憶してよい。
コンピューティングシステム10902は、1つまたは複数の方法で、痛み点に対するユーザ入力の指示を受信してよい。例えば、コンピューティングシステム10902は、患者が痛みを感じるポイント手足を動かした時、(例えば、患者が着用するXR可視化デバイスのマイクロフォン、動作追跡デバイス10906のマイクロフォン、または他のデバイスのマイクロフォンを介して)患者から口頭による指示を受信してよい。例えば、この例では、患者が痛みを感じるポイントに手足を動かした時、患者は、「痛い」と言ってよい。別の例では、コンピューティングシステム10902は、可動域の現在のポイントでユーザが痛みを感じたことを示すジェスチャ(例えば、ハンドジェスチャ、ヘッドジェスチャ等)をユーザが行っていることを示すビデオデータを(例えば、患者が着用するXR可視化デバイスの1つまたは複数のカメラを介して)受信してよい。他の例では、コンピューティングシステム10902は、タッピングジェスチャ、ボタン押し下げ、または他の形式のユーザ入力等、ユーザ入力の指示を受信してよい。
いくつかの例では、XR可視化デバイス10904の1つまたは複数は、可動域のエクステンデッドリアリティ可視化を、医師、外科医または看護師等、1人または複数のヘルスケア専門家に提示してよい。言い換えると、XR可視化デバイスは、ヘルスケア専門家によって着用されてよい。例えば、ヘルスケア専門家及び患者は、ヘルスケア専門家が1つまたは複数のXR可視化デバイス10904を着用または他の方法で使用しているインタラクティブなセッションに参加してよい。この例では、ヘルスケア専門家及び患者は、別々の場所にいてよい。言い換えると、遠隔治療セッション中の場合のように、ヘルスケア専門家及び患者が別々の場所にいる患者とのインタラクティブなセッション中、XR可視化デバイスは、エクステンデッドリアリティ可視化をヘルスケア専門家に提示してよい。
あるいは、この例では、ヘルスケア専門家と患者は、通院中等、同じ場所にいてよく、ヘルスケア専門家及び患者は、互いに直接、話してよい。言い換えると、ヘルスケア専門家と患者が同じ場所にいる患者とのインタラクティブなセッション中、XR可視化デバイスは、XR可視化をヘルスケア専門家に提示してよい。いずれの場合でも、XR可視化デバイスは、可動域のXR可視化をヘルスケア専門家にリアルタイムで提示してよく、その結果、ヘルスケア専門家は、患者が達成可能な可動域を可視化することができる。
この例では、ヘルスケア専門家は、(例えば、ヘルスケア専門家が着用するXR可視化デバイス及び患者が着用するXR可視化デバイスを介して、1つまたは複数の他の通信デバイスを介して、または対面で直接)患者と通信して、様々な目標可動域で手足を動かそうと試みるように患者に指示してよい。いくつかの例では、ヘルスケア専門家に提示されるXR可視化は、1つまたは複数の目標可動域を示す。
XR可視化デバイス10904の1つがエクステンデッドリアリティ可視化をヘルスケア提供者に提示するいくつかの例では、他のXR可視化デバイス10904の1つは、他のXR可視化を患者に提示してよい。例えば、遠隔治療セッション中、または、通院中、ヘルスケア専門家及び患者の両方が、XR可視化デバイスを着用または他の方法で使用してよい。この例では、XR可視化デバイスは、患者の手足の達成された可動域、目標可動域、痛み点等の1つまたは複数を示すXR可視化をヘルスケア専門家及び患者に提示してよい。
XR可視化をヘルスケア専門家に提示するいくつかの例では、ヘルスケア専門家は、患者とのインタラクティブなセッションの文脈外で、XR可視化を見る。言い換えると、XR可視化デバイスは、患者が関与していないセッション中、XR可視化をヘルスケア専門家に提示してよい。例えば、患者は、手足の可動域をテストする様々な運動を行ってよく、コンピューティングシステム10902は、(例えば、データストレージシステム10910に)手足の可動域を示すデータを記憶してよい。
この例では、コンピューティングシステム10902は、記憶されたデータを使用して、後に手足の可動域のXR可視化を生成してよい。この例では、ヘルスケア提供者が着用するXR可視化デバイスが、患者が運動を行った後、任意の時に、エクステンデッドリアリティ可視化をヘルスケア提供者に提示してよい。このように、ヘルスケア提供者が可動域の角度を示す記載だけを見ている場合は困難であるような方法で、ヘルスケア提供者は、患者の手足の可動域を効果的に可視化または概念化できてよい。
いくつかの例では、コンピューティングシステム10902が新しい可動域データを受信したこと、または、患者が可動域運動を行っていることを示す情報をコンピューティングシステム10902が受信した時、コンピューティングシステム10902は、ヘルスケア提供者に通知を送信してよい。いくつかの例では、コンピューティングシステム10902は、患者が割り当てられた理学療法運動を行ったかどうかを示す情報をヘルスケア提供者に提供してよい。
さらに、いくつかの例では、コンピューティングシステム10902は、患者の可動域の経時的な進化を示す情報をヘルスケア提供者に提示してよい。例えば、コンピューティングシステム10902は、様々な時のその患者の可動域に対応する仮想弧をXR可視化デバイスが表示するのを可能にする情報をXR可視化デバイスに提供してよい。いくつかの例では、XR可視化デバイスは、患者の可動域の変化をデモンストレーションするのをさらに助けるように仮想弧をアニメーションにしてよい。いくつかの例では、患者が着用するXR可視化デバイスは、患者の可動域の進化に関して患者に教育するのを助けるように類似の仮想弧を表示してよい。
ヘルスケア専門家に提示されたXR可視化は、様々な仮想物体を含んでよい。XR可視化をヘルスケア専門家に提示するいくつかの例では、XR可視化は、本開示の他の箇所に記載するように、仮想分度器を含んでよい。さらに、いくつかの例では、可動域及び目標可動域の1つまたは複数の仮想弧が、本開示の他の箇所に記載するように、可視化で提示されてよい。従って、一例では、ヘルスケア提供者に提示されるXR可視化は、手足の可動域の最も遠い点の間の角度にわたる第1の仮想弧を含んでよい。この例では、XR可視化はさらにまたは代替的に、手足の目標可動域の最も遠い点の間の角度にわたる仮想弧を含む。
いくつかの例では、ヘルスケア専門家に提示されるXR可視化は、患者が感じる痛み点の指示を含んでよい。すなわち、痛み点は、可動域のXR可視化にマークされてよい。例えば、一例では、ヘルスケア専門家に提示されるXR可視化は、患者の手足の達成された、または目標の可動域に対応する仮想弧を含んでよく、患者が痛みを感じるポイントを示す仮想弧上の仮想インジケータも含んでよい。言い換えると、手足の可動域のXR可視化は、手足の可動域の最も遠い点の間の角度にわたる仮想弧を含んでよく、痛み点が仮想弧上にマーク付けされる。
さらに、手足の動作の不規則性は、有用な診断情報を提供し得る。例えば、患者は、可動域の第1の部分を通して制御可能な方法で手足を下げることが可能であり得るが、可動域の第2の部分で手足の動作の制御が容易にできず、手足がすぐに垂れ下がる。この例では、この情報が、特定の筋肉の断裂、または、埋め込まれた関節置換表面のずれ等、特定のタイプの健康状態の診断となり得る。別の例では、可動域内の一定の点での手足の動作の突然または普通でない加速または減速は、価値ある診断情報を提供してよい。ある例では、手足の動作のこれらの不規則性は、患者には知覚できない場合がある。このような診断情報は、術前フェーズ302及び術後フェーズ308中等、手術ライフサイクルの様々な時点で有用であり得る。
従って、コンピューティングシステム10902は、動作データに基づいて、患者の手足の動きに不規則性があるかどうかを判断してよい。例えば、コンピューティングシステム10902は、可動域での手足の複数の動きから生成された動作データの動きのセットを比較して、一貫性のある動作パターンがあるかどうかを判断してよい。例えば、コンピューティングシステム10902は、動的タイムワープアルゴリズムを適用して、可動域で手足を動かした異なる時点の動作信号のセットに基づいて、可動域での手足の加速を表す信号を生成してよい。コンピューティングシステム10902は、次に、結果として生じる信号を典型的な人の可動域での手足の加速を表す信号と比較してよい。
いくつかの例では、可動域のエクステンデッドリアリティ可視化は、手足の動作の不規則性に関する情報を含んでよい。従って、コンピューティングシステム10902は、手足の不規則な動きが生じる手足の可動域の点を動作データに基づいて決定してよく、エクステンデッドリアリティ可視化が手足の不規則な動きが生じる可動域の決定された点を示すように、可動域のエクステンデッドリアリティ可視化を生成してよい。
例えば、XR可視化は、手足の可動域内で手足の動作の不規則性があるかどうかを示す仮想点、仮想弧、または他の仮想物体を含んでよい。手足の動作の不規則性に関する情報は、患者、ヘルスケア専門家、または整形外科手術システム100の他のユーザに提示されてよい。例えば、手足の動作の不規則性に関する情報が患者に提示される例では、患者は、不規則性が生じないように手足を動かそうと試みるように(例えば、患者が着用するXR可視化デバイス、患者が使用するスマートフォン、動作追跡デバイス10906等によって)促されてよい。
この例では、手足を規則的に動かすように促されているにもかかわらず、患者がそうできない場合、不規則性が確認されてよい。手足の動作の不規則性に関する情報が(例えば、XR可視化デバイス10904、モニタ、または他の可視化デバイスの1つによって)ヘルスケア専門家に提示される例では、手足の動作の不規則性に関する情報を示すXR可視化は、ヘルスケア専門家による診断または理学療法を支援してよい。
図111は、本開示の技術による、可動域の例示のエクステンデッドリアリティ可視化を示す概念図である。図111の例に示すXR可視化は、XR可視化デバイス(例えば、XR可視化デバイス10904の1つ)を着用しているまたは他の方法で使用しているヘルスケア提供者によって認識されてよい。あるいは、図111の例に示すXR可視化は、XR可視化デバイス(例えば、XR可視化デバイス10904の1つ)を着用しているまたは他の方法で使用している患者が鏡を見ている時、患者によって認識されてよい。
図111のXR可視化は、患者または患者の一部分の画像またはアバタ11100を含む。さらに、図111のエクステンデッドリアリティ可視化は、(例えば、内転及び外転を行う時)患者の左肩関節を通る前頭面での患者の左腕の実際の可動域に対応する角度にわたる仮想弧11102を含む。さらに、図111の例では、XR可視化は、横断面での患者の左腕の目標可動域に対応する角度にわたる仮想弧11104を含む。
他の例では、仮想弧11102及び仮想弧11104は、他の面にあってよい。マーカ11106は、痛み点に対応してよい。マーカ11110は、患者の左腕の不規則な動きの点または領域に対応してよい。さらに、図111の例では、エクステンデッドリアリティ可視化は、仮想弧11102及び仮想弧11104の焦点から半径上にあり、且つ仮想弧平面にある現在の線11108を含む。コンピューティングシステム10902は、現在の線11108が患者の左腕の主軸と整列したままになるように、現在の線11108を更新してよい。
図112Aは、本開示の技術による、可動域分析及び可視化のシステム10900の例示の動作を示すフローチャートである。図112Aの例では、コンピューティングシステム10902は、患者の手足の動きを記述する動作データを取得してよい(11200)。例えば、コンピューティングデバイス10902は、本開示に記載するように、動作追跡デバイス、カメラのセット、またはこれらの組み合わせから、動作データを取得してよい。
さらに、図112Aの例では、コンピューティングシステム10902は、動作データに基づいて、手足の可動域を決定してよい(11202)。コンピューティングシステム10902は、本開示の他の箇所に提供する例の任意の1つまたは組み合わせに従って、手足の可動域を決定してよい。
コンピューティングシステム10902は、患者または患者のアバタに重ね合わされる手足の可動域のXR可視化を生成してよい(11204)。コンピューティングシステム10902は、本開示の他の箇所に提供する例の任意の1つまたは組み合わせに従って、XR可視化を生成してよい。
図112Bは、本開示の技術によるシステム10900の例示の動作を示すフローチャートである。図112Bの例では、患者の動作追跡デバイス10906は、手足の目標可動域の最も遠い点に達するように患者の手足を動かそうと試みるようにというプロンプトを出力してよい(11240)。例えば、動作追跡デバイス10906は、音声またはビデオによる手足の動かし方の説明を出力してよい。本開示の他の箇所に記載するように、動作追跡デバイス10906は、ヘルスケア専門家からのユーザ入力の指示に応答して等、様々な出来事に応答して、プロンプトを出力してよい。
さらに、図112Bの例では、動作追跡デバイス10906は、患者の手足の動きを記述する動作データを生成してよい(11242)。例えば、動作追跡デバイス10906のIMUは、動きを記述する動作データを生成してよい。動作追跡デバイス10906は、動作データに基づいて、患者の手足の達成された可動域を示すデータを生成してよい(11244)。例えば、動作追跡デバイス10906は、達成された可動域の開始点お及び停止点の座標を示すデータを生成してよい。いくつかの例では、動作追跡デバイス10906は、患者データのリモートデータベース(例えば、データストレージシステム10910)に達成された可動域を示すデータを送信してよい。
さらに、いくつかの例では、動作追跡デバイス10906は、患者の手足が可動域内の患者が痛みを感じる点にある時、ユーザ入力の指示を受信してよい。このような例では、ユーザ入力の指示を受信することに応答して、動作追跡デバイスは、動作データに基づいて、痛み点を示すデータを生成してよい。痛み点は、患者が痛みを感じる患者の手足の位置であってよい。
図113は、ユーザの集合が教育目的でMRシステムを使用する例示の設定を示す概念図である。図113の例では、外科医は、第1のMRシステム11300(例えば、MRシステム212の可視化デバイス(例えば、可視化デバイス213)を着用または他の方法で使用してよい。MRシステム11300の可視化デバイスは、MR教育コンテンツ11302をトレーナに提示してよい。さらに、図113の例では、別の外科医が、第2のMRシステム11304の可視化デバイスを着用または他の方法で使用してよい、医療デバイスメーカの担当者が、第3のMRシステム11306の可視化デバイスを着用または他の方法で使用してよい、及び/または看護師が、第4のMRシステム11308の可視化デバイスを着用または他の方法で使用してよい。一例では、外科医がMRシステム11300の可視化デバイスを着用または他の方法で使用している間、医療デバイスメーカの担当者は、MRシステム11306の可視化デバイスを着用または他の方法で使用してよい。この例では、MRシステム11300及びMRシステム11306の可視化デバイスは、同じMR教育コンテンツ11302を医療デバイスメーカの担当者と外科医に提示してよい。この例では、医療デバイスメーカ及び外科医が同じMR術前コンテンツを見ながら、医療デバイスメーカは医療デバイスの使用を外科医に説明してよい。
本開示は、複合現実(MR)を使用する整形外科医療処置の幾つかのマルチユーザ協力技術を記載する。この技術は、広範な整形外科手術で有用であり得るが、解剖学的及び逆解剖学的肩再建手術の両方で特に有用であり得る。実際に、この技術は、逆関節形成、オーグメント使用(augmented)逆関節形成、標準的な全肩関節形成、オーグメント使用(augmented)全肩関節形成、半球(hemispherical)肩手術、または他のタイプの肩手術に役立ち得る。しかしながら、より一般的には、この技術は、手術に複数の人が参加する任意の整形外科医療処置に有用に適用可能である。
手術室内で使用される複合現実デバイスに関して、ユーザが手術室の他のユーザの複合現実提示(または、その一部)を見ることができる様々なビュー共有技術及び制御を記載する。手術室のユーザ、及びリモートユーザは、例えば、1人または複数の外科医、1人または複数の看護師、1人または複数の支援要員(医療デバイス器具、インプラント、機器または医療用品のメーカの技術支援担当者等)、麻酔医、及び他の手術室要員等、医療提供者を含んでよい。
いくつかの例では、他のユーザ(または、場合によっては、固定カメラ)のビューに関連付けられたMRコンテンツが、他のユーザまたは視点からのビューを見たいユーザの提示内のウィンドウビューとして提示されてよい。ユーザのビューは、ユーザがユーザ自身の視点から見えるものの少なくとも一部であってよい。いくつかの例では、他のユーザのビューは、他のユーザまたは視点によって見られるビューを見たいユーザのメインビューとして選択的に提示されてよい。よって、ユーザは、メインビューと、例えば、サブウィンドウで1つまたは複数の追加のビューとを見てよく、提示されるビューのいずれかをメインビューとして選択してよい。例えば、整形外科手術を行っている医師は、自身の視点からの複合現実ビューをメインビューとして提示されてよいが、例えば、ビューに関連付けられたサブウィンドウまたは他の情報のうちの1つを、人、ビュー名、または他の情報に基づいて選択することによって、手術室内の他の人(または、固定カメラ)のビューを選択して見ることができてよい。これによって、医師は、自身の視点をメインビューとして見るが、サブウィンドウ及び/またはサブウィンドウの1つを一時的にメインビューとして見ることによって、手術室内の他の視点を素早く獲得することができる。いくつかの例では、ユーザがメインビュー上に提示されたウィンドウで他の人の他のビューを同時に見ながら、自身のメインビューを見ることができるように、他の人のビューが、ユーザのメインビュー上にウィンドウとして提示されてよい。外科医は、例えば、手術ステップを行いながら、異なる角度または視点の看護師のビューにアクセスしてよく、看護師のビューは、外科医のメインビュー上のウィンドウで外科医に示されてよい。
さらに、本開示はまた、手術室内の異なるユーザにとって異なり得る複合現実提示を記載する。例えば、看護師と医師は手術室で役割が異なり、複合現実は、医療処置で各ユーザの役割を支援するようにユーザごとにオンにされてよいので、看護師に対する複合現実提示は、医師の複合現実提示と異なってよい。他の参加者は、他の役割を有してよく、他の参加者の複合現実提示は、このような異なる役割を提供するように規定されてよい。他の例として、医療デバイスの担当者、助手、異なる看護師、及び異なる医師に対する複合現実提示は、互いに異なってよい。他の人のビューにアクセスする時、その人のビューは、現実世界の物体(患者の骨または他の解剖学的構造のビュー等)と仮想物体(MR提示において提示される仮想要素等)の両方を含んでよい。従って、医師が、看護師のビューにアクセスまたは観察する時、医師は、看護師が見ている現実世界の物体と看護師に提示される仮想物体との両方を看護師のMR提示で見てよい。
いくつかの例では、ある複合現実情報(例えば、複合現実提示の仮想要素)は、全ての参加者にとって共通であってよいが、他の複合現実情報は、医療処置における参加者の役割に基づいて、特定の参加者に固有で、特定の参加者のみに提示されてよい。本開示はまた、他のユーザからの複合現実情報を物体毎に有効または無効にする能力を企図しており、例えば、医師のMR提示で同じ要素が見えるように、看護師のMR提示の一部である仮想要素を医師が有効または無効にするのを可能にする。従って、ビュー共有は、他のユーザのビュー全体(他のユーザが見た現実の観察される物体と他のユーザに提示される仮想要素とを含む)を見る能力、または、物体毎に他の人に対して示される仮想物体を有効または無効にする能力を含み得る。有効または無効にし得る仮想物体は、複合現実ガイダンス機能、ユーザインタフェース、ウィジェット、またはMR提示に含まれる任意の仮想情報を含み得る。
さらに他の例では、本開示は、場合によっては、仮想現実を使用して、1人または複数のリモート参加者による医療処置への参加を容易にし得る技術を記載する。異なる例では、記載されたシステム及び技術は、能動的及び受動的参加者、手術室の異なる役割に対して規定されたユーザ固有の複合現実ガイダンス、ビュー共有及びビュー共有の制御、並びに以下により詳細に記載する他の有用な特徴を容易にしてよい。能動的参加者は、例えば、仮想コンテンツ、ビュー共有、及び他のビューのMR提示に対して何らかのレベルの制御を有してよく、受動的参加者は、MR提示及び仮想コンテンツに対して制御を行うことなく、MR提示及び仮想コンテンツを見る能力を有してよい。
本開示の他の箇所に記載するように、複数のユーザは、MRシステムを同時に使用することができる。例えば、MRシステムは、ユーザが同じ情報を同時に見ることができるように、複数のユーザがそれぞれ、可視化デバイスを有する第三者モードを支援することができる。このようにして、1人または複数の第三者は、術前、術中、及び術後手順の能動的または受動的参加者であってよい。
能動的及び受動的参加者を手順に含める能力は、非常に望ましい場合がある。いくつかの例では、医療処置または医療体験中、受動的役割が、割り当てられてよい、または、再割り当てされてよい。他の例では、様々なレベルの受動的役割が規定されてよい。実際、異なるMR体験及び機能が、MRシステムを用いて異なる人に提供されてよい。例えば、医師は、第1のMRインタフェースを提示されてよく、看護師は、第1のMRインタフェースとは異なる第2のMRインタフェースを提示されてよい。例えば、可視化デバイス213のMR画面520に示されるユーザインタフェース522の選択可能なウィジェット524(図5)は、医師に対して規定されてよく、異なる選択可能なウィジェット524は、医師が使用する処理デバイスとは異なる処理デバイス(複数可)210(図2)を使用する看護師(または、他のユーザ)に対して規定されてよい。第1のユーザのMR体験と第2のユーザのMR体験の間の他の変化も、ユーザに基づいて規定されてよい。例えば、受動的参加者ユーザは、選択可能な制御ウィジェットの無い視聴可能なMR要素を提示されてよく、これは、生徒、または手順の他の受動的オブサーバには望ましい場合がある。このような受動的MR参加者は、手順のMR要素を見ることから利益を得てよいが、MR世界のものを選択または修正することはできなくてよい。
図114は、互いに通信する複数のMRデバイスを含むシステム11400のブロック図である。図示の各MRデバイスは、本明細書に記載の可視化デバイス213(図2、図5)と類似の可視化デバイスを含んでよい。図114は、4つのMRデバイス(11402、11406、11408及び11410)を示すが、より多いまたはより少ないデバイスを使用することができる。MRデバイス(11402、11406、11408及び11410)の可視化デバイスは例えば、手術等の、整形外科医療処置中、手術室のユーザによって着用されてよい。図示のように、MRデバイス1(11402)は、ビュー共有ウィンドウ11404を含む。本開示によると、MRデバイス1(11402)は、MRデバイス1(11402)上に、他のMRデバイスのビューの1つまたは複数を提示するように構成される。ビュー共有ウィンドウ(11404)として示されているが、ビュー共有は他の方法で提示されてよい。
MRデバイス1(11402)は、特定のユーザに対して構成されてよく、MRデバイス2(11406)、MRデバイス3(11408)及びMRデバイス4(11410)は、他のユーザに対して構成されてよい。このようにして、ユーザ固有の役割が、手術室で規定されてよく、複合現実提示が、各参加者に対して規定されてよい。参加者は、手術室で異なる役割を有しているので、MR提示は、異なるユーザに対して異なってよい。この理由のために、ビュー共有は、例えば、医師が、手術室でより協力を可能にするように、看護師のビューまたは技師のビューを見ることを可能にすることが望ましい。ビュー共有はまた、手術室でビューの異なる角度または異なる視点を可能にすることが望ましい場合がある。ビュー共有は、異なるMRデバイス間で、場合によっては、1つまたは複数の追加の固定カメラ(図114には示さず)から生じてよい。場合によっては、MRデバイス(11402、11406、11408、11410)の1つまたは複数は、手術手順に対してリモートに位置してよい。この場合、リモート参加者は、他の参加者と同じ仮想要素を見ることができてよいが、現実世界ビューは、MRデバイスが異なる場所で使用されることによって異なってよい。ビュー共有は、リモート参加者がローカル参加者のビューを見ることを可能にするように、このタイプの設定で特に有用であってよい。
異なるレベルの能動的参加及び受動的参加はまた、足首の手術手順または肩の手術手順等の整形外科手術への異なる能動的参加者に対して規定されてよい。例えば、医師は、医療処置中、MR提示の表示された要素の特定のレベルの制御を与えられてよく、看護師または助手は、異なるレベルの制御を与えられてよい。また、MRインタフェースは、異なるユーザに対して異なってよい。従って、医師は、医師の手順を支援する仮想ガイダンス(手順で医師を支援する仮想ガイダンス機能等)を提供するように設計された医師のためのMRインタフェースを提示されてよく、看護師は、看護師の特定のタスク(ツール選択及び追跡と、手順のドキュメンテーション等)で看護師を支援するように設計された異なるMRインタフェースを提示されてよい。医療デバイス要員、追加の医師、麻酔医、医師の助手、看護師の助手、医療技師、または他のユーザ等、他のタイプのユーザも規定されてよい。いくつかの例では、マスタの役割は、プロセスに対する全体的な制御を提供するように規定されてよく、場合によっては、マスタの役割は、ユーザ間で委託されてよい。例えば、図114を再び、参照すると、MRデバイス1(11402)は、マスタデバイスに指定されてよく、MRデバイス2~4(11406、11408及び11410)に関連付けられた他のユーザは、MRデバイス1(11402)より少ない制御を有してよい。場合によっては、しかしながら、マスタの役割は、ユーザ間で割り当てまたは変更されてよい。
いくつかの例では、本開示は、第1のMR提示を介して第1のユーザに第1の医療情報を提供するように構成された第1のMRデバイス(例えば、MRデバイス1 11402)と、第2のMR提示を介して第2のユーザに第2の医療情報を提供するように構成された第2のMRデバイス(例えば、MRデバイス11406)とを含むMRシステム(例えば、MRシステム11400)を記載する。第1及び第2のMRデバイスは、本開示の他の箇所に記載するように可視化デバイスを含んでよい。いくつかの例では、第1の医療情報は、第2の医療情報と同じである。いくつかの例では、第1の医療情報及び第2の医療情報は異なる。第1のMRデバイスは、第1のユーザに対して第2のMR提示を提示するように制御可能であってよい。例えば、第1のMRデバイスは、第1のMR提示内の可視ウィンドウとして、第1のユーザに第2のMR提示を提示するように構成されてよい。別の例では、第1のMRデバイスは、第1のユーザが第1のMR提示または第2のMR提示を選択及び見ることができるように構成されてよい。各MR提示は、現実世界の物体と1つまたは複数の仮想要素とのビューを含んでよい。
いくつかの例では、MRシステム(例えば、MRシステム11400)は、整形外科医療処置に関する第1の医療情報を第1のMR提示を介して医師に提供するように構成された第1のMRデバイス(例えば、可視化デバイス213)を含んでよく、ここで、第1のMR提示は、整形外科医療処置に関連付けられた医師固有の情報を含む。MRシステムは、第2のMR提示を介して第2の医療情報を第2のユーザに提供するように構成された第2のMRデバイス(例えば、別の可視化デバイス213)をさらに含んでよく、ここで、第2のMR提示は、第1のMR提示とは異なる情報を含む。いくつかの例では、第1の医療情報は、第2の医療情報と同じである。いくつかの例では、第1の医療情報と第2の医療情報は異なる。第1のMRデバイスは、第2のMR提示を医師に提示するように制御可能であってよい。例えば、第1のMRデバイスは、第1のMR提示内の可視ウィンドウとして、第2のMR提示を第1のユーザに提示するように構成されてよい。いくつかの例では、第1のMRデバイスは、第1のMR提示または第2のMR提示を第1のユーザが選択できるように構成されてよい。医師固有の情報は、手術ガイダンス情報を含んでよい。さらに、いくつかの例では、第2のMR提示は、整形外科医療処置と関連付けられた看護師固有の情報を含んでよい。例えば、看護師固有の情報は、手術アイテム情報を含んでよい。他の例では、第2のMR提示は、整形外科医療処置に関連付けられた技師固有の情報を含んでよい。例えば、技師固有の情報は、第2のMR提示に1つまたは複数の仮想要素を位置合わせするための位置合わせガイダンスを含んでよい。例えば、位置合わせガイダンスは、骨等の現実世界の物体に仮想要素(例えば、骨の仮想3Dモデル)を位置合わせする方法のガイダンスを含んでよい。
いくつかの例では、本開示の方法は、第1の可視化デバイス上に第1のMR提示を介して第1の医療情報を第1のユーザに対して提示することと、第2の可視化デバイス上に第2のMR提示を介して第2の医療情報を第2のユーザに提示することとを含んでよい。この例では、第1の可視化デバイスは、第2のMR提示を第1のユーザに提示するように制御可能であってよい。第2のMR提示は、現実世界の物体と、1つまたは複数の仮想要素のビューを含んでよい。
いくつかの例では、本開示の方法は、第1の可視化デバイス上に第1のMR提示を介して第1の医療情報を第1のユーザに提示することと、第2のMR提示を含む第2の医療情報を第2の可視化デバイスから受信することと、第1の可視化デバイスを制御して、第1の可視化デバイス上に第2のMR提示を選択的に提示することとを含んでよい。いくつかの例では、第1の医療情報は、第2の医療情報と同じである。いくつかの例では、第1の医療情報と第2の医療情報は異なる。本開示に記載のこれらの及び他の方法は、1つまたは複数のプロセッサによって実行されてよく、この場合、技術は、コンピュータ可読媒体に記憶されたプロセッサ実行可能命令で具体化されてよい。1つまたは複数のプロセッサは、可視化デバイス213の1つまたは複数のプロセッサを含んでよく、コンピュータ可読媒体は、可視化デバイス213のメモリを含んでよい。
ワークフロー管理ツール及びチェックリストも手術プロセスの追加のチェック及び制御を提供するために使用されてよい。例えば、複数のMR参加者が手術に関与する時、異なる人が異なるステップの承認に割り当てられてよい。システムが手術を次のステップに進めるのを可能にする前に、1人の人が、第1の医療処置ステップを承認する必要があってよく、場合によっては、システムが手術をさらに別のステップに進めるのを可能にする前に、異なる人が、第2の医療処置ステップを承認する必要があってよい。このようにして、手術ステップのチェックと承認が、手術の異なる参加者(または、オブサーバ)間で分散されてよい。ワークフロー管理ツール及びチェックリストは、肩関節形成、足関節形成、または多くの異なるステップを必要とする任意のタイプの整形外科手術等、複雑なマルチステップ手術手順で特に役立ち得る。
いくつかの例では、医師は、第1のMRインタフェースを提示されてよく、看護師は、第1のMRインタフェースとは異なる第2のMRインタフェースを提示されてよい。例えば、図114を参照すると、MRデバイス1(11402)は、医師に第1のMRインタフェースを提示してよく、MRデバイス2(11406)は、看護師に第2のMRインタフェースを提示してよい。さらに、助手または医療デバイス技師等の他のユーザは、さらに他のタイプのMRインタフェースを提示されてよい。このように、各ユーザに提示されるMRインタフェースは、その参加者の手順内での特定の役割を支援するように特に規定または調整されてよい。例えば、手術手順で手術ステップをガイドするのに使用するMRベースの術中ガイダンス機能(切断軸、ドリル軸、リーミング軸、仮想ジグ、インプラント位置決め目標、または他の術中支援)が、このようなステップを担当する外科医に提示されてよいが、これらの術中ガイダンス機能の一部は、看護師、助手または医療デバイス技師等、他のユーザには提示されなくてよい。さらに、このような術中ガイダンス機能のためのメニューまたは制御は、医師に対してその医師のMRデバイス上に提示されてよいが、このようなメニューまたは制御は、他のユーザのMRデバイス(複数可)上の他のユーザのビューからは取り除かれてよい。同様に、ツール選択プロンプト、医療デバイス在庫追跡、及び医療処置ドキュメンテーション機能が、看護師(並びに、メニュー及び制御)に提示されてよいが、これらの機能の一部または全ては、外科医のビューからは除かれてよい。また、仮想要素をMR提示へ位置合わせする機能等、他の機能及びコントロールが、医療デバイス技師に提示されてよいが、技師のためのこのような技師固有のMRは、外科医及び看護師のビューからは除かれてよい。場合によっては、ユーザは、他のユーザに示す仮想要素の有効化または無効化を選択することを許可されてよい。例えば、外科医が、一般的に看護師には示されるが、医師には示されない仮想要素を見る必要がある、または見たい場合、看護師固有の仮想要素は、外科医によって選択的に有効または無効にされてよい。
一部の仮想要素は、全ての参加者に視聴可能であってよく、他の仮想要素またはコントロールは、限定的な参加者のみが視聴可能であってよい。このようにして、MRシステムは、医療処置の参加者の役割に合わせて調整されたツール及び機能で、各参加者をガイドする支援をすることができる。さらに、所与の参加者の役割に関連の無い機能及びコントロールを除くことによって、MR体験を向上させることができ、且つ、MR体験の視覚的混乱を取り除く助けをすることができる。例えば、ツール選択プロンプトは、看護師が、ツールと、手順におけるこのようなツールの計画された使用の連続及び順序を識別する際の支援を行うために非常に望ましい場合がある。しかし、特に、外科医が患者の手術組織または骨の部位に集中している間、外科医は、ツール選択プロンプトは注意をそらすものであると感じる場合があり、医師は、看護師が、例えば、外科医が要求するように、及び/または、ツール選択及び順序と全体的な手術ワークフローとに関する看護師に提供される仮想ガイダンスが示すように、手順の適切な順番でツールを提供するのに頼るだけの場合がある。これらのまたは他の理由のために、各MR体験が手順のその参加者の役割により適したものになるように、可視化デバイス213のMR画面520に示されるユーザインタフェース522の選択可能なウィジェット524が、医師に対して規定されてよく、異なる選択可能なウィジェット524が、看護師(または、他のユーザ)に対して規定されてよい。
能動的参加者及び第三者を含むMRデバイスのユーザは、MR可視化デバイスを用いて、手順中、物理的に存在してよい。あるいは、1人または複数のユーザまたは第三者は、手順の場所に対して物理的にリモートにいてよい。1人または複数のユーザまたは第三者は、リモートにいる時、ラップトップコンピュータ、デスクトップコンピュータ、スマートフォン、または他のタイプのディスプレイ画面上等、リモートのディスプレイ画面を介して、手順に参加、または手順を見てよい。他の例では、リモート参加者は、複合現実(MR)可視化デバイスを介して、MRではなく仮想現実(VR)を用いて、手順を見てよい。MRがリモート参加者に対して使用される場合、リモート参加者は、他の参加者と同じ仮想要素を見ることができてよいが、MRデバイスが異なる場所で使用されているという理由で、現実世界ビューは異なり得る。ビュー共有は、リモート参加者がローカル参加者のビューを見ること可能にするように、このタイプの設定で特に有用であり得る。
いくつかの例では、システムは、VRデバイス及びMRデバイスの両方を含んでよい。この場合、リモートユーザに提示されるVR環境は、ローカル参加者が使用するMRシステムによってキャプチャ及び提示される画像及び物体を含んでよい。このように、現実世界の物体を含むMR環境は、キャプチャされて、VR環境としてリモートユーザに提示されてよい。VR可視化は、VR環境の画像を含んでよい。VR環境において、MR参加者が見る現実世界の物体は、上記の現実世界の物体のVR画像によって表されてよい。いくつかの例では、VRユーザに提示されるVR提示は、MR参加者の1人のMRビューの1つを含んでよい。しかしながら、他の例では、VRユーザに提示されるVR提示は、2人以上のMR参加者の2つ以上のMRビューからの情報を含んでよい。複数のMRビューを使用すると、単一のMRビューを使用してVR提示をレンダリングするのに比べて、手順の正確なMR表現の作成が強化され得る。例えば、MR参加者は、部屋をマッピングし、仮想環境としてVR参加者に対して提示することができるように、ルームマッピングのための入力を提供してよい。
図115は、リモート環境11502の1人または複数のユーザと通信するローカル環境11508の1人または複数のユーザを含む分散MRシステム11500を示すブロック図である。通信は、(例えば、ネットワーク11516として示す)任意のタイプのネットワークを介して生じてよい。ある例では、ローカル環境11508は、手術室を含んでよい。MRデバイス1~3(11510、11512及び11514)は、医師、看護師、医療技師、麻酔医または他のユーザ等、手術室のユーザに対応してよい。
一般に、ローカル環境11508は、ユーザが患者の近くで視聴できる環境であってよく、リモート環境11502は、ユーザが患者の近くで視聴できない場所に対応してよい。リモート環境11502は、ローカル環境11508と同じ場所ではないので、リモート環境11502のシステム11500のユーザはいずれも、純粋な仮想現実で操作してよい。VRデバイス11504は、この仮想現実環境を促進してよく、仮想現実環境は、ローカル環境11508のMRデバイスの1つまたは複数からのビュー及びデータに基づいて生成された仮想現実世界(例えば、ルームマッピング)であってよい。
図115に示すように、VRデバイス1(11504)は、ビュー共有ウィンドウ11506を含む。本開示によると、VRデバイス1(11504)は、ローカル環境11508のMRデバイスのビューの1つまたは複数をビュー共有ウィンドウ11506に提示するように構成される。ビュー共有ウィンドウとして示されるが(11404)、ローカル環境11508のMRデバイスの選択された1つのビューを前提として、ビュー共有ウィンドウを有するリモートにあるMRデバイスを介して、または、VRデバイス11504によってなど、ビュー共有は他の方法で提示されてよい。
いくつかの例では、外科医は、手術室において、MRの支援で、患者に対して1つまたは複数の手順を行ってよい。手順中、MR環境が、キャプチャされてよく、ディスプレイ画面を介して、または、VR環境としてリモートユーザに提示されてよい。外科医は、可視化デバイス213を用いて等、MRデバイスを介して、手術室で患者を直接、見ることができてよい。MRユーザは、複合または拡張現実をユーザに配信する可視化デバイスを利用してよく、リモートのVRユーザは、純粋な仮想現実である可視化デバイスを利用してよい。
あるいは、VRを使用するのではなく、リモートユーザは、リモートにあるMRデバイスを使用してよい、または、カメラからのカメラフィード、またはローカル参加者が使用するMRデバイスを含むディスプレイ画面(デスクトップコンピュータ、ラップトップコンピュータまたはスマートフォン等)を単に見てよい。いくつかの例では、1人または複数のリモートユーザによって使用されるリモートディスプレイ画面は、ローカルのMR参加者に表示する同じ仮想要素を表示する。リモート参加者は、MRビュー間で選択できてよく、MRビューを随意に切り替えることができてよい、また、リモート参加者が選択するビューは、リモート参加者が選択するローカルビューに対応する同じものを有するローカルのMR参加者に表示される仮想要素を含んでよい。
いくつかの例では、MRシステムは、外科医が見る画像をキャプチャすることができ、次に、そのキャプチャした画像を使用して、リモートの第三者にVRを介して表示できるVR画像をレンダリングすることができる。このようにして、リモートの第三者は、ローカルの外科医が見るMR環境と類似または同じVR環境を提示されてよい。当然、VR参加者は一般的に手術室にいないので、VR参加者のビューは、MR参加者には入手できなくてよい。
1人または複数のMR参加者と1人または複数のVR参加者がシステムを使用している時、MR参加者及びVR参加者は、MR及びVR環境で、互いに提示されてよい。例えば、手術室でMRの支援で働いている外科医は、MR環境にMR物体(例えば、アバタ)として示され得る1人または複数のVR参加者を含むMR環境を提示されてよい。同様に、VR参加者は、MR環境に示される同じ物体及び画像を含むVR環境を提示されてよい。従って、MRユーザに示されるMR環境の現実の物体は、VR環境のVR物体としてVRユーザに提示されてよい。このように、MRの世界とVRの世界は、MR参加者がMR世界でVR物体としてVR参加者を見ることができるように、結び付けることができる。同様に、VR参加者は、MR物体、MR参加者(例えば、アバタ)と、VR世界のVR物体として現実世界の物体とを見ることができる。物体がMR世界で動くと、物体の動きが、MR参加者の1人または複数によってキャプチャされる。次に、VR世界は、MR参加者がキャプチャするMR世界の変化を反映するように調整される。このように、VR参加者は、MR世界に基づくVR世界をリアルタイムで見ることができる。再び、いくつかの例では、VRユーザへのVR提示は、MR参加者のうちの1人のMRビューの1つを含んでよい。しかしながら、他の例では、VRユーザに対するVR提示は、2人以上のMR参加者の2つ以上のMRビューからの情報を含んでよい。複数のMRビューを用いて、手順の正確なVR表現の作成は、VRのレンダリングに単一のMRビューを使用することに比べて強化され得る。例えば、複数のMR参加者が、部屋をマッピングし、仮想環境としてVR参加者に対して提示することができるように、ルームマッピングのための入力を提供してよい。
上記のように、VR参加者の1人または複数は、手術室または患者とインタラクションするためのリモート位置等、MR設定に対してリモートにいてよい。これは、VR参加者が、患者とのやりとり、手順、または手術の場所に対してリモート参加者であることを可能にし得る。VR参加者を引き受ける能力は、多くの状況及び設定にとって非常に望ましい場合がある。例えば、外科専門医は、手術室のMR手順で、VR参加者として相談されてよく、それによって、リモートにいるVR参加者によって、その手順により専門知識を提供し得る。例えば、この例では、手術室にいるMR可視化デバイスのユーザは、リモートの外科専門医に手術中の助言を要求してよい。この例では、リモートの外科専門医は、VR可視化デバイスを使用して、手術室のシーンのVR可視化を取得してよい。そうすると、MRを使用しているローカルの医師は、医療プロセスの向上の助けになるように、質問をすることができる、またはリモートのVR参加者からガイダンスを受信することができる。リモートのVR参加者は、例えば、リモートのVR参加者のVRビューとして外科医のMRビューを選択することによって、ローカルのMR外科医が見ているものを見ることができてよい。いくつかの例では、リモートのVR参加者は、手順に対する識見またはアドバイスを得るために、医療処置中、呼び出される外科専門医であってよい。
いくつかの例では、MRシステムは、整形外科医療処置に関する第1の医療情報を第1のMR提示を介して第1のユーザに提供するように構成された第1のMRデバイス(例えば、可視化デバイス213)と、整形外科医療処置に関する第2の医療情報を第2のMR提示を介して第2のユーザに提示するように構成された第2のMRデバイス(例えば、別の可視化デバイス213)とを含む。第1及び第2の医療情報は、例えば、第1または第2のMR提示に提示される1つまたは複数の仮想要素の形態で手術ガイダンス情報を含んでよい。いくつかの例では、第1の医療情報は、第2の医療情報と同じである。いくつかの例では、第1の医療情報と第2の医療情報は異なる。仮想要素は、例えば、仮想平面、仮想軸、仮想メニューもしくはウィジェット等、本開示に記載する仮想情報のいずれか、または、手術で有用であり得る任意の仮想情報を含んでよい。MRシステムは、整形外科医療処置に関する第1または第2の医療情報の少なくとも一部を第3のユーザに提供するVR提示を提示するように構成されたVRデバイスをさらに含んでよい。VR提示は、第1のMR提示または第2のMR提示に少なくとも部分的に基づいてよい。いくつかの例では、VR提示は、第1のMR提示及び第2のMR提示のうちの1つを含み、いくつかの例では、VR提示は、第1のMR提示と第2のMR提示の間でVRデバイスで選択可能である。第1のユーザ及び第2のユーザは、患者の近くの見える場所にいてよく、第3のユーザは、患者に対してリモートにいてよい。VRデバイスは、MR提示とほぼリアルタイムで、第3のユーザにVR提示を提示するように構成されてよい。第1のMRデバイスは、第1のMR提示で第3のユーザにアバタを提示するように構成されて、第2のMRデバイスは、第2のMR提示で第3のユーザにアバタを提示するように構成される。さらに、VRデバイスは、第1及び第2のユーザをVR提示でアバタとして提示するように構成されてよい。
いくつかの例では、本開示は、リモートの医療専門家が使用するVRデバイスを記載する。このVRデバイスは、患者に関連する医療情報をリモートの医療専門家に提供するVR提示を提示するように構成されたディスプレイを含み、ここで、VR提示は、MR提示と、ディスプレイを制御する1つまたは複数のプロセッサとに少なくとも基づき、MR提示は、患者に近くの見える場所にいるMRデバイスのローカルユーザによってローカルでキャプチャされる。
いくつかの例では、MRシステムは、第1の医療情報及び第1の現実世界情報を第1のMR提示を介して第1のユーザに提示するように構成された第1のMRデバイスと、第2の医療情報及び第2の現実世界情報を第2のMR提示を介して第2のユーザに提供するように構成された第2のMRデバイスと、第3の情報を第3のユーザに提供するように構成された第3のデバイスとを含み、ここで、第3の情報は、第1のMR提示または第2のMR提示に少なくとも部分的に基づく。いくつかの例では、第1の医療情報は、第2の医療情報と同じである。いくつかの例では、第1の医療情報と第2の医療情報は異なる。第3のデバイスは、第1のMR提示と第2のMR提示との間の選択を第3のデバイスで可能にするように構成されてよい。第1のユーザ及び第2のユーザは、患者に近くの見える場所にいてよく、第3のユーザは、患者に対してリモートにいてよい。いくつかの例では、第3のデバイスは、第1のMRデバイス上での第1のMR提示及び第2のデバイス上での第2のMR提示に対して、第3の情報を第3のユーザにリアルタイムで提示する。第3のデバイスは、第3の情報を提示するディスプレイ画面を含んでよい、または、代替的に、第3のデバイスは、第3の情報を提示するVRデバイスを含んでよい。
いくつかの例では、本開示の方法は、第1の可視化デバイス上に第1の複合現実提示を介して、整形外科医療処置に関する第1の医療情報を第1のユーザに提示することと、第2の可視化デバイス上で第2のMR提示を介して、整形外科医療処置に関する第2の医療情報を第2のユーザに提示することと、整形外科医療処置に関する第1または第2の医療情報の少なくとも一部を提供するVR提示を、VRデバイスの第3のユーザに提示することとを含んでよく、ここで、VR提示は、第1のMR提示または第2のMR提示に少なくとも部分的に基づく。いくつかの例では、第1の医療情報は、第2の医療情報と同じである。いくつかの例では、第1の医療情報と第2の医療情報は異なる。
本開示に記載のこれらの及び他の方法は、1つまたは複数のプロセッサによって実行されてよく、この場合、技術は、コンピュータ可読媒体に記憶されたプロセッサ実行可能命令で具体化されてよい。1つまたは複数のプロセッサは、可視化デバイス213の1つまたは複数のプロセッサを含んでよく、コンピュータ可読媒体は、可視化デバイス213のメモリを含んでよい。
ビュー共有と、手順へのリモート参加者の参加の例の多くを本開示に手術プロセスの文脈で記載した。しかしながら、ビュー共有及びリモート参加者の使用は、患者との術前のやり取り、術後のやり取り、または他の設定等、他の設定でも使用されてよい。例えば、術前または術後のやり取りで、リモート参加者は、そのリモート参加者の専門知識を活用するために、(例えば、MR、VR、または本明細書に記載の他の技術の支援で)相談を受ける場合がある。リモート参加者は、医療専門家、医療デバイス技師、外科専門医、看護師、または相談する必要があり得る任意の他の人であってよい。一般に、ビュー共有と、医療処置へのリモート参加者の参加は、手術室設定、教育設定、術前会議もしくは設定、術後会議もしくは設定、理学療法設定、または他の設定を含む、広範な設定で望ましい場合がある。
別の例として、MRは、患者の住居で患者のリモート健康診断のため、または、救急治療のため等、患者とのやり取り、健康診断、または現場救急に現場でローカルに使用されてよい。例えば、図115に示すように、ローカル環境11508は、患者のケアが必要な任意の場所を含み得る。これらのタイプの例では、リモート参加者は、このリモートの健康診断または救急治療中、VRデバイス11504を使用してリアルタイムで相談される場合がある。このような例では、MR参加者(複数可)は、医師、看護師、または例えば、患者の家で、患者とローカルに対話する他の人を含み得る。MR参加者が見る物体及び画像は、仮想物体と混合された実際の物体であってよい。これらの同じ物体及び画像はまた、VRを使用して物体を仮想物体としてリモート参加者に提示することによって、リモート参加者に提示されてよい。これは、(ARを使用して働いている)医療要員が、リモートのVR参加者の意見及び専門知識をリアルタイムで活用するのを可能にし得る。このように、VR参加者は、患者の治療を見るために、診断及び支援するために、患者の場所にいる必要はない。他の例では、リモート参加者は、MR参加者または他のカメラがキャプチャした情報を含み得る1つまたは複数のディスプレイ画面を見るだけでよい。
いくつかの例では、1人または複数のMR参加者がキャプチャしたビュー及び画像は、リモートのVR参加者によって見られてよい。例えば、VRを使用している医師は、手順へのMR参加者がローカルに見るビュー及び画像にアクセスすることができてよい。VRを使用して、医師は、MR参加者がローカルに見たビュー及び画像を提示されてよい。このように、医師は、患者に対してリモートにいてよいが、VRを使用している医師によるリモートの診断及び治療を支援及び容易にするように、患者及び患者の環境のリアルタイムの物体及び画像を見てよい。
いくつかの例では、1つまたは複数のMRユーザのビューは、1人または複数のリモートユーザの選択可能な選択肢であってよい。このように、複数の異なるMR視点に関連付けられた複数の異なるビューのオプションが、リモートユーザによってアクセスされてよい。例えば、VRを使用しているリモートの医師は、第1のMR参加者または第2のMR参加者のビューを選択して見ることができてよい。このように、リモートユーザが見るVR世界は、手順へのローカルのMR参加者が示す同じMRビューを含み得る。さらに、リモートのVRユーザは、手順への異なるMR参加者に関連付けられた異なるMRビューを提示するようにビューを変更することができてよい。VR参加者の選択可能なビューは、手術室環境と、リモートの患者の健康診断と、リモートの現場救急とにとって望ましい場合がある。
他のユーザのビューを選択するために、ユーザは、アバタ、サブウィンドウ、視線、アイコン、またはドロップダウンメニューからの選択肢を選択してよい。これらのまたは他のタイプの制御機構は、ユーザのMRまたはVR提示で、可視化デバイス上に提示された仮想物体として実施されてよい。次に、第1のユーザが第2のユーザのビューを選択するとき、その第2のユーザのビューが、第1のユーザに提示されてよい。このように、ビュー共有と、他のユーザのビューの選択可能性は、より多くの情報をMRユーザに提供し得る。
ローカルプロセッサ手順と比べて、VR参加者は、MR参加者に表示されるMR世界にMR物体(例えば、アバタ)として提示されてよい。このように、VR参加者は、MR参加者に対して「部屋の中に」いるとして提示されてよい。従って、VR参加者は、MR参加者とプロセスにより組み込まれてるように見えて、VR参加者が例えば、手術室に、または、治療の場所にいるという印象をMR参加者に与えることができる。MR参加者及びVR参加者は、同じ部屋で対話しているかのように、互いに対話及び会ってよい。MR参加者は、しかしながら、物体(例えば、アバタ)を見ているだけであり、逆も同じである。
いくつかの例では、VR参加者は、複数のMR参加者に関連付けられたビューとやりとりまたはそれらのビューを選択することができる。VR参加者は、第1のMR参加者のビューによって規定された第1のVR世界を見ることができてよく、VR参加者は次に、第2のMR参加者がキャプチャしたビューを変更できてよい。このように、例えば、VR参加者は、リアルタイムで見るビューに対してより多くの制御を与えられてよい。また、さらに追加の例では、複数のローカルユーザからの複数のMRビューに基づいて、部屋が、マッピングされてよく、VR世界のVR参加者に提示されてよい。このように、VR世界は、複数のMRユーザが見るMR世界と現実世界をより正確に反映してものであってよい。VR世界での物体の演出は、複数のMRユーザが見る物体がただ1人のMRユーザが見る物体よりもVR世界に表示される可能性が高くなるように、投票スキームまたは他の優先順位付けスキームで決定されてよい。
いくつかの例では、VR参加者は、ローカルのMR医師が行った作業のチェックを含んでよい。この例では、VR参加者は、ローカルのMR医師が行った医療プロセスを見てよい、またはモニタリングしてよい。VR参加者は、ローカルのMR医師のビューをリアルタイムで観察しながら、ローカルのMR医師と通信して、口頭でフィードバックを行ってよい。ローカルのMR医師の作業に対するVR参加者によるこのタイプの協力及び安全点検は、前向きな患者結果のために役立ち得る。MRまたはVRユーザよって音声入力が提供されてよく、全てのユーザが、同じ部屋にいるかのように、その音声入力を聞いてよい。これは、VRユーザの存在に対して、患者及びMRユーザのより親しい体験を提供することができる。
リモートのVR参加者に与えられる制御のレベルは、異なるシナリオ及び設定で様々であってよい。いくつかの例では、VR参加者は、手術等、手順の1つまたは複数のステップに対するチェックを提供されてよい。この例では、手順のステップの完了は、VR参加者が手順のステップの完了の承認を与えるという条件であってよい。このように、MRを使用しているローカルの外科医は、VRを使用しているリモートの医師の専門知識によってガイド及び支援されてよい。いくつかの例では、MRシステムは、MRを使用しているローカルの医師がローカルで行った手順またはステップをリモートの医師が承認する必要があるように、VRを使用しているリモートの医師からの入力を要求してよい。VRを使用しているリモートの医師は、リアルタイムでプロセスを見ることができ、フィードバックを提供することができ、プロセスまたはステップがローカルの外科医によって適切に行われたかどうかを決定することができる。
さらに他の例では、MRシステムは、患者の場所にローカルのMRユーザを含んでよく、リモートのオブザーバは、1つまたは複数のリモートディスプレイ画面を介してMR環境を見ることができてよい。この場合、リモートのオブザーバは、ローカルのMRユーザのビューを選択できてよく、場合によっては、患者の場所の静止したカメラに関連付けられたビューを選択できてよい。このように、リモート参加者は、異なるビューを選択できてよく、それによって、手順を評価及び理解できてよい。例えば、リモート参加者は、手順中、相談を受けることがある医師を含んでよい。別の例として、リモート参加者は、デバイスまたはインプラント埋め込み手順の情報に関して相談を受けることがある医療デバイス技師等、医療技師を含んでよい。一般に、「ローカルの」MRユーザは、患者または手順の近くの見える所にいるユーザであってよく、「リモートの」ユーザは、患者または手順の近くの見える所にいないユーザであってよい。いくつかの例では、システムは、医療デバイス技師からの支援の必要性を低減することができ、場合によっては、一部の手術で、医療デバイス技師の支援の必要を無くすことができる。
図116は、リモート環境11602の1人または複数のユーザと通信するローカル環境11608の1人または複数のユーザを含むMRシステム11600を示す別のブロック図である。通信は、(例えば、ネットワーク11616として示す)任意のタイプのネットワークを介して生じてよい。いくつかの例では、ローカル環境11508は、手術室を含んでよい。MRデバイス1~3(11610、11612及び11614)は、医師、看護師、医療技師、麻酔医または他のユーザ等、手術室のユーザに対応してよい。いくつかの例では、図116は、複数のユーザが同じMR術中ガイダンスコンテンツ1802を見ている場合がある図18のシナリオのインスタンスと見なされてよい。
図115の例と同じように、図116では、ローカル環境11608は、ユーザが患者に近くの見える場所にいる環境であり、リモート環境11602は、患者の近くの見える場所にいない位置に対応し得る。リモート環境11602は、ローカル環境11608と同じ場所ではないので、リモート環境11502にいるシステム11600のユーザはいずれも、ローカル環境11608のMRデバイスからのビューまたはデータへのアクセスを必要とし得る。
図116に示すように、リモート環境11602のユーザは、ビュー共有ウィンドウ11606を含むように構成されたディスプレイ11604を利用してよい。ディスプレイ11604及びビュー共有ウィンドウ11606は、1つまたは複数のプロセッサ(図示せず)によって制御または駆動されてよい。いずれの場合でも、ディスプレイ11604は、ビュー共有ウィンドウ11606で、ローカル環境11608のMRデバイスのビューの1つまたは複数を提示するように構成される。ビュー共有ウィンドウとして示されるが(11404)、ビュー共有は、ローカル環境11608のMRデバイスの選択されたビューと仮定すると、ディスプレイ11604等、他の方法で提示されてよい。図116は一般に、仮想現実を必要とせずに、リモート参加者がビュー共有を使用する方法を示す。実際、この例では、リモート環境11602は単に、1つまたは複数のディスプレイ画面を使用して、ローカル環境11608から、リモート環境11602の1人または複数のユーザに情報を伝えてよい。
別の例では、MRユーザとリモートユーザの両方(例えば、1つまたは複数のディスプレイ画面を見るVRユーザまたはリモートユーザ)を含むMRシステムを使用して、リモートの患者の健康診断を容易にしてよい。この場合、リモートユーザは、MRユーザのローカルの患者とのやり取りをMRシステムを介して支援するように活用されてよい。例えば、MRを使用している看護師が、VRまたはリモートディスプレイ画面を使用しているリモートの医師を、患者とのやり取りの支援に関与させてよい。MR環境は、MRを使用する看護師及び患者と、VR(図116に示される等)またはローカルにキャプチャされたMRビューを表示するディスプレイ画面(図116に示される等)を使用するリモートにいる医師を含んでよい。VRを使用しているリモートの医師の場合(図116に示される等)、患者は、リモートの医師が看護師及び患者と部屋にいるかのように、医師と対話してよい。このような場合、医師は、患者に医療的なアドバイスを行うために、看護師のMRビューを活用してよい。
さらに別の例では、MRユーザとリモートユーザ(VRユーザまたは他の人のMRビューを表示するディスプレイ画面を有するユーザ等)の両方を含むMRシステムを使用して、救急治療を容易にし得る。この場合、リモートユーザは、MRシステムを介してMRユーザの救急治療を支援するために活用されてよい。例えば、MRを使用する救急医療技師(EMT)は、(VRまたはローカルのMRビューを表示するディスプレイ画面を用いる)リモートの医師を救急患者のやり取りの支援に関与させてよい。医師は、患者の即時の医療診断を行うためにEMTのMRビューを活用してよい。MR環境は、リモートの医師が救急治療のために「現場にいる」という感覚を与えるために、MRを使用するEMTと、リモートにいる医師とを含んでよい。
本開示の他の箇所に記載するように、MRシステムは、複数のユーザが同時に同じ画像を見ることができ、MR術中ガイダンスコンテンツ1802等の同じ3Dシーンを共有することができるように(図18)、複数の可視化デバイスを含み得る。このような例では、可視化デバイスの1つは、マスタデバイスとして指定することができ、他の可視化デバイスは、オブサーバとして指定することができる。いずれのオブサーバデバイスも、MRシステムのユーザが望めば、いつでもマスタデバイスとして再指定することができる。
本明細書に記載の例のいずれかを使用して、1つのマスタデバイスと多くのオブサーバデバイスとを有することも望ましい。さらに、マスタデバイスの割当は変わり得るので、マスタの役割は、特に部屋にいる人の間でマスタの役割を渡すように、異なるオブサーバに再割り当てされてよい。整形外科的肩再建手術の一例では、ある人が患者の関節窩骨の箇所を正確に示すためのドリル作業を行ってよく、別の人が、患者の関節窩骨へのリーミング作業を行ってよく、次に、第3の人が、患者の関節窩骨の識別及びリーミングされた箇所にインプラントを配置してよい。複数の参加者を伴うこの例または他の手術例では、それぞれの人は、自分が行う医療処置の1つまたは複数のステップに関してマスタとして割り当てられてよく、それぞれの人は、他の人が行う他のステップに関してオブサーバとして割り当てられてよい。一例では、マスタは、MRシステムに対するマスタ制御を自発的に受け入れることができてよい、または放棄してよい。別の例では、特定のユーザをマスタに変更するために、マスタ制御は、MR参加者の2人以上(または、場合によっては大半)の承認を必要とする手順等、特定のマスタ割当手順に基づいて、自動的に割り当てまたは再割り当てされてよい。
さらに他の例においては、ローカルの外科医は、外科的切断を行ってよく、(VRを使用する)他のローカルまたはリモートの人は、物理的な解剖学的物体に位置合わせするために視野にMR物体を配置するために、本開示に記載の、例えば、「設定(SET)」「調整(ADJUST)」及び「マッチ(MATCH)」等、手順の1つまたは複数の位置合わせステップを行ってよい。言い換えると、3Dモデルの位置合わせは、MR参加者としての専門家によってローカルに、または、場合によっては、VR参加者としての専門家によってリモートでも行われてよい。これらの例においては、専門家は、医療デバイス担当者であってよく、専門家は、患者の現実の骨もしくは組織で、3Dモデルの初期化段階を行うように割り当てられたMRまたはVR参加者であってよい。
専門家がVR参加者である場合、専門家は、患者の骨構造に重ね合わせられる3Dモデルに対して患者の骨構造のリアルタイム画像を見るために、MR参加者の1人または複数からの画像を見てよい。専門家の参加者は、コマンド、ハンドジェスチャ、視線、または他の制御機構を使用して、VR要素としてリモートの医師に見せる患者の骨構造に対して3Dモデルを方向付けてよい。リモート参加者を受け入れるVRの使用によって、より適任の医師が初期化段階を行うことが可能になってよい。あるいは、専門家は、ローカルのMR参加者であってよく、その場合も、位置合わせプロセスの初期化プロセスをその専門家に割り当てると有利であり得る。次に、初期化後、MRまたはVRユーザの1人が、3Dモデルを患者の現実の骨とより正確にマッチさせるための最小化アルゴリズム等の最適化アルゴリズムを開始してよい。リモートの専門家を手術手順に関与させる能力は、肩関節形成、足関節形成、または1つまたは複数の複雑なステップを必要とする任意の他のタイプの整形外科手術等、複雑なマルチステップ手術手順で特に役立ち得る。
コンピュータ支援ステップは、リモートの医師に特によく適し、物理的ステップ(切断、リーミング、ドリルまたは他のステップ等)は、医師の物理的存在を必要とし得る。例えば、初期化ステップは、医療デバイス技師等、VR参加者またはローカルの専門家がリモートで実行するのによく適し得る。いくつかの例では、本開示に記載の、例えば、「設定(SET)」「調整(ADJUST)」及び「マッチ(MATCH)」の仮想物体位置合わせステップの1つまたは全ては、医療デバイス技師等、手順で使用されるMRシステムまたは医療デバイスの専門家であるVR参加者またはローカル参加者がリモートで実行するのによく適し得る。
さらに、本開示の他の箇所に記載するように、MRシステムのUI(例えば、図5のUI522)上に表示された画像は、手術環境外または手術環境内で見ることができ、第三者モードで、手術環境外または手術環境内で複数のユーザによって同時に見ることができる。
いくつかの例では、MRシステム212等のMRシステムは、手術室内の異なる参加者が着用するMRデバイス間でビューを共有する能力をサポートしてよい。さらに、ビュー共有はまた、手術室の1つまたは複数の固定カメラで実施されて、例えば、医師が固定カメラまたは他のユーザの特定のビューにすぐに繰り返しアクセスするのを可能にしてよい。このように、例えば、医師は、動き回ったり、自分のビューを変化させたりする必要無く、視覚情報を非常に素早く手に入れることが可能であってよい。
例えば、整形外科手術に関与する医師(または、他のユーザ)は、自分の視点からの複合現実ビューを提示され得るが、そのユーザは、手術室内の他の人(または、固定カメラ)のビューを選択及び見ることができてよい。これは、医師が手術室内の他の視点を素早く得るのを可能にし得る。他の人のビューは、そのユーザの複合現実提示の一部として、現実の物体と重ね合わされた仮想物体を含む複合現実ビューを含んでよい。医師(または、他のユーザ)が、例えば、可視化デバイス213での医師の複合現実提示で、他の人のビューを選択すると、他の人のビューが、例えば、ディスプレイウィンドウとして、またはMRデバイス上の全ビューとして、医師のMRデバイス上で医師に提示されてよい。
共有されたビューは、1つまたは複数の現実の物体と1つまたは複数の仮想物体とを含んでよい。異なるユーザは医療処置で異なる役割を有するので、各ユーザのMR可視化デバイス213に示される仮想物体は異なってよいが、ビュー共有を実施すると、1人のユーザのビューの仮想物体が、他のユーザと共有されてよい。このように、ビュー共有は、ビュー共有を利用しなければ、あるユーザが視聴できないであろう仮想要素を含む固有のMR提示をユーザたちが共有するのを可能にし得る。
例えば、看護師及び医師は、異なるMR提示を提示されてよいが、医師が看護師のビューを選択すると、看護師のビューが医師に提示されてよく、そのビューは、ビュー共有をしなければ、医師のMR提示に提示されない看護師固有の仮想要素を含み得る。従って、他のユーザのビューを提示することによって、医師は、異なる視点、異なる視野角、及びビューに提示される異なる仮想要素を得ることができてよい。
異なるユーザが異なるMR提示を提示される時、このようなユーザに提示される仮想要素は異なってよい。これによって、1人のユーザが見る仮想要素を、そのユーザに特定のものにすることができ、別のユーザが見る仮想要素をその別のユーザに特定のものにすることができる。ここで再び、例えば、医師及び看護師は、医師に規定された仮想要素を含むMR提示と看護師に規定された仮想要素を含む異なるMR提示を提示されてよい。いくつかの例では、ビュー共有によって、医師は看護師のMR提示を見ることができてよい。または、いくつかの例では、ビュー共有は、要素ごとに実施されてよい。言い換えると、看護師に提示される1つまたは複数の仮想要素は、医師が特定の仮想要素に関して看護師と選択的にビュー共有を行うことができるように、医師によって有効または無効にされてよい。
例えば、ツール識別要素が、看護師のMR提示で看護師に提示されて、看護師のツール選択及びツール追跡を支援してよい。このようなツール識別要素(または、他の看護師固有の要素)は、最初、医師には隠されていてよい。しかしながら、物体固有ビュー共有を用いると、医師は、看護師の仮想要素を医師のMR提示で有効または無効にすることができてよい。従って、医師(または、他のユーザ)は、医師(または、他のMRユーザ)のMR提示をカスタマイズするように、他のユーザが見る仮想要素を有効、無効にすることができてよい。
いくつかの例では、MRシステムは、術前、術中または術後の教育目的に使用されてよい。教育の利益は、患者に提供されてよい、または、場合によっては、教育の利益は、医学生または他の医師等、第三者オブサーバに提供されてよい。例えば、MRシステムを使用して、そのプロセスのリモートのオブザーバに教育を提供してよい。この例では、リモートのオブザーバは、本明細書に記載のVRデバイス等、VRデバイスを実施してよい。あるいは、リモートのオブザーバは、ローカルのMR参加者のMRフィードを見る能力のみを有してよい。
MR可視化デバイスは、外科医が、3Dコンテンツを見て、手順中ステップごとに何が起こるかを正確に可視化するのを可能にしてよい。ステップごとの説明は、医師が使用するMR可視化デバイスに提供される仮想コンテンツであってよい。医師に提供される情報は、一般的な患者集団からの情報に基づいた一般的な患者情報を含んでよい、または、所与の手順が行われる特定の患者に関連する患者固有の情報であってよい。
いくつかの例では、可視化デバイス213等のMR可視化デバイスは、医師、患者または他のユーザが使用するMR可視化デバイスに仮想の人を提示するように構成することができ、仮想の人が、行われる手術または他の医療処置に関する1つまたは複数の詳細を説明してよい。仮想の人は、自動記録であってよい、または、リモートにいて、手術室のMR可視化デバイスとやりとりするリモートVRデバイスを用いて操作している実際の医師を含んでよい。ビデオまたは命令キューは、MR可視化デバイスのユーザに選択可能なウィジェットであってよく、このようなビデオまたは命令キューは、医療処置の異なるステップまたは段階に対して規定されてよい。このタイプのインタラクティブな選択可能なリアルタイムの術中命令は、処置を、定期的、頻繁、または、より大量に行っていない外科医の支援に特に有用であり得る。
いくつかの例では、MR可視化デバイス(例えば、可視化デバイス213)は、教育または計画目的で、医師が、仮想の骨、仮想のインプラント、または他の仮想要素を患者に配置するのを可能にし得る。例えば、実際の患者の画像、または患者の骨もしくは物理的特徴のセグメンテーションが、ARで提示されてよく、仮想のインプラント、ジグ、または他の要素が、医師によって仮想で患者に配置されてよい。患者に対するインプラントまたはジグの仮想配置は、インプラントまたはジグのサイジング及び選択を向上させ得る、または、患者の固有の解剖学的特徴に合わせた患者固有のインプラントまたはジグを促進または改善し得る。
医師は、インプラント、ジグまたは他の要素の仮想3D画像を異なる視点から見てよく、ハンドジェスチャ、音声コマンド、視線方向、及び/または他の制御入力を使用して、患者の画像またはセグメンテーションに対して3D画像を操作してよい。例えば、医師は、患者のインプラント埋め込み箇所に、例えば、患者の肩に、インプラントまたはジグの仮想表現を配置してよい。配置は、例えば、関節窩骨処置のMRベースの術中ガイダンスの例に関して本開示の他の箇所に記載するように、「設定(SET)」及び「調整(ADJUST)」技術によって仮想インプラントを設定及び調整することを伴ってよい。初期化プロセスで配置されると、マッチングアルゴリズムを実施して、例えば、関節窩骨処置のMRベースの術中ガイダンスの例に関して本開示の他の箇所に記載するように、コンピュータアルゴリズムを介して患者の解剖学的構造へのインプラント埋め込みを「マッチ(MATCH)」させてよい。
さらに、本開示の他の箇所に記載するように、仮想3次元表現が、MR提示において医師の手順を支援するように規定されてよい。仮想3D表現は、肩再建手術の上腕骨上の切断軸等、解剖学的要素に対する切断軸を示してよい。別の例として、仮想3D表現は、肩再建手術の患者の関節窩骨に対するリーミング軸等、解剖学的要素に対するリーミングアクセスを示してよい。さらに別の例として、3次元表現は、解剖学的要素に対するドリル軸を示してよい。当然、仮想3D表現は、行われる手術手順によって規定されてよい。足首の手術においては、例えば、仮想3D表現は、仮想の足首モデル、または距骨及び/または脛骨のモデルに対して提示される仮想要素を含んでよい。
さらに別の例として、3次元表現は、解剖学的要素に対する仮想ジグの配置を示してよく、この場合、3次元表現は、仮想ジグに対する軸(例えば、リーミング軸)も含んでよい。これらの例においては、解剖学的要素は、患者の現実の骨であってよい、または、患者の解剖学的特徴の1つまたは複数の現実の画像に基づいて生成された患者の解剖学的特徴の3D仮想表現を含んでよい。解剖学的特徴の3D仮想表現は、患者の実際の解剖学的要素、すなわち、患者の現実の解剖学的構造へ位置合わせされてよく、その結果、実際の物理的解剖学的要素のMRビューにオーバーレイとして示される。このように、3D仮想表現(例えば、切断軸、リーミング軸、ドリル軸、仮想ジグ、または他の特徴)に関連付けられた術前計画は、3D仮想表現に関して規定されてよく、その結果、3D仮想表現が患者の現実の解剖学的特徴へ位置合わせされると、術前計画の特徴(例えば、切断軸、リーミング軸、ドリル軸、仮想ジグ、または他の特徴)も、患者の現実の解剖学的特徴に対して適切に整列される。
いくつかの例では、MRシステムは、患者または他の医療専門家との教育的協力を可能にし得る。MRベースの協力は、MRの支援で患者への手順を説明するために患者との術前会議中に行われてよい。MRベースの協力は、患者への手順の詳細を説明するために、実際の患者の画像をインプラント、ジグまたは他の医療デバイスの仮想表現と組み合わせて使用してよい。
他の例では、MRシステムは、術後の症例分析を可能にし得る。この場合、手術結果の実際の画像は、他の患者の他の手術結果の画像と比較されてよい。別の例として、手術結果の実際の画像は、術後評価を提供するために、仮想画像と比較されてよい。術後協力は、術前協力と同様、本明細書に記載するようなMR可視化デバイスまたはVR可視化デバイスを用いて、患者、または、複合現実に参加する他の全ての医療専門家と行われてよい。
さらに他の例では、MRシステムは、医療処置または手術中の教育訓練を可能にし得る。言い換えると、医療処置の1人または複数の受動的視聴者は、MR環境に対する制御無しに、MR環境のビューをユーザに提供する受動的MR可視化デバイスを有してよい。このような受動的視聴者は、手術室に、または、手術室の隣の視聴室、または、手術室からリモートにいてよい。あるいは、場合によっては、受動的視聴者は、リモートで、手術室の人が見るMR提示の1つまたは複数を主に見てよい。手術室の一員の存在も手術窒の一員との協力も無いリモート位置からのこのような受動的視聴は、訓練及び教育目的で使用されてよい。このようなMR視聴ツールは、医療処置のリアルタイムビューまたは遅延ビューでの使用に非常に有用であり得る。
いくつかの例では、MRシステムは、例えば、可視化デバイス213のストレージシステムに記憶された、または、可視化デバイス213に通信可能に結合されたデータベース(例えば、図2のストレージシステム206)に記憶された以前の患者または以前の手術に関連する情報のデータベースを維持してよい。この場合、情報のデータベースは、現在の手術または処置に密接に関連する知識または情報を伝え得る以前の手術または処置の状況または事情を識別するために使用されてよい。患者の測定値、解剖学的特徴のサイズ、形状もしくは奇形、インプラントもしくはジグのサイズ、または他のパラメータ等、特定のパラメータが、データベースに記憶された以前の手術または処置と現在の処置との間の類似または一致を識別するために使用されてよい。
このように、MRシステムは、現在の患者に関連する現在の処置と、過去の患者に行われた過去の処置との間の症例の類似性を医師が識別することを支援するために使用することができる。場合によっては、MRシステムは、手術の推奨(インプラントのサイズ及び形状、インプラントのタイプ、解剖学的または逆解剖学的処置の推奨、または、他のタイプの推奨等)をユーザである医師に提示するように構成されてよい。推奨は、例えば、データベースに記憶されたデータを活用する機械学習技術によって規定されてよい。
術中フェーズ306(図3)中、外科医は、複雑な一連のワークフローステップに従う整形外科手術を行う場合があり、ステップの一部または全ては、所定の順に従って進み得る。外科医は一般的に、整形外科手術のステップを行う訓練を十分に受けているが、整形外科手術の1つまたは複数のステップが誤って省略されたり、不正確な方法で行われたりするインシデントが生じる場合がある。さらに、外科医は、整形外科手術のステップを行うことを覚えているが、ステップの1つまたは複数の態様の実行の仕方を間違えて覚えているというインシデント、または、ステップの実行方法のリマインダもしくはステップの1つまたは複数の態様に関するガイダンスから利益を受けるが、それらの一部が、特定の患者のために生成された特定の手術計画に従って変更されているというインシデントが生じ得る。
このようなインシデントは、手術の効率、手術の有効性または患者の結果に影響を与え得る。書面のチェックリストを使用して、手術のステップを行う外科医及び手術室(OR)のスタッフに思い出させてよい。しかしながら、書面のチェックリストの使用には多くの欠点がある。例えば、特に、外科医が手術用ツールを手に持っている時、外科医が書面のチェックリストを見ることは容易でない場合がある。さらに、外科医は無菌状態を保たなければならないので、書面のチェックリストの項目に外科医が自分の手でチェックを付けることは不可能である。さらに、書面のチェックリストは、完了したステップと今後のステップに関する視覚的混乱があり、書面のチェックリストの処理は外科医の貴重な時間を奪い得る。さらに、書面のチェックリストの視覚的混乱によって、外科医が、手術のステップを飛ばして読む可能性がある。看護師がチェックリストを保持して、外科医に復唱するというアプローチは、この目的のために専用の看護師が必要になるので、コストが増加し得る。さらに、書面のチェックリストでは、書面自体で提供される情報以上の情報に外科医がアクセスすることはできない。
ORのコンピュータ画面に書面のチェックリストのコンピュータバージョンを提示することは、従来の書面のチェックリストと同じ問題の多くを有し得る。例えば、手術の全てのステップをコンピュータ画面上に提示すると、視覚的混乱を生じさせて、外科医を遅れさせたり混乱させ得る、また、手術部位から外科医が眼をそらす必要が生じ得る。さらに、コンピュータ画面に提示されたチェックリストを制御するために専用の看護師が必要となり得る。さらに、書面のチェックリストのコンピュータバージョンは、原則として、外科医が手術中により多くの情報にアクセスするのを可能にし得るが、外科医は、このような情報の表示を要求するのが困難な場合がある。例えば、無菌状態を保つ必要があるため、外科医は、マウスまたはキーボードを使用してコンピュータを制御することができない場合がある。外科医は、音声による指示をコンピュータまたは看護師に行うことができてよいが、音声コマンドは、コンピュータ及び看護師によって間違って解釈される場合があり、その結果、時間を失ったり、ここでも、外科医がコンピュータに追加情報を表示させたい場合に備えて、コンピュータを制御するために利用できる専用の看護師を必要とし得る。
コンピュータ画面に提示されるチェックリストの追加の問題は、整形外科医及び他のヘルスケア専門家が患者のまわりで作業する十分な空間を確保するために、手術中、コンピュータ画面が整形外科医からいくらか遠くなることが多いということである。例えば、コンピュータモニタは、手術室の壁に取り付けられている場合がある。しかしながら、これだけで、整形外科医にとっては一定の問題が起こり得る。例えば、一例では、患者の手術部位がよく見えるように外科医を助ける拡大ルーペ眼鏡または標準的な矯正用眼鏡をかけている整形外科医がいる。しかしながら、患者の手術部位は一般的に、コンピュータモニタがある場所よりも整形外科医にずっと近いので、外科医の眼鏡は、かなり遠い距離にあるコンピュータモニタを見るのを困難にし得る。言い換えると、手術場所とコンピュータモニタの間の焦点距離の差が大きすぎて、整形外科医が、特定の眼鏡を着用している(または、着用していない)時、手術場所とコンピュータモニタの両方を見ることができない場合がある。従って、外科医は、コンピュータモニタを見るために、眼鏡をはずすまたは変えることが必要な場合がある。眼鏡をはずすまたは変えることは、時間を費やし、細菌の広がりや他のタイプの汚染の他の潜在的な媒介物を導入し得る。
本開示は、上記の問題等の問題に対処し得るように、整形外科手術のワークフローステップを通してエクステンデッドリアリティ(XR)を使用してユーザ(例えば、外科医または他のタイプの人)を支援する技術を記載する。本開示の他の箇所に記載するように、XRは、VR、MR及びARを含み得る。整形外科手術のワークフローステップを通してユーザを支援するためにXRを使用し、XRがVRの形態を取る例では、ユーザは、整形外科手術のシミュレーションを行っていてよい、または、整形外科手術をリモートで行っていてよい。整形外科手術のワークフローステップを通してユーザを支援するためにXRを使用し、XRがMRまたはARの形態を取る例では、外科医は、整形外科手術中、現実世界の物体と仮想物体とを同時に認識してよい。
例えば、図117は、本開示の技術による、整形外科手術のワークフローステップのステップを通して、外科医、看護師、または他の医療技師等のユーザを支援し得る例示のシステム11700を示すブロック図である。図117の例では、システム11700は、XR可視化デバイス11702、通信ネットワーク11704、及び、1つまたは複数のコンピューティングシステム11706A~11706N(集合的に、「コンピューティングシステム11706」)を含む。他の例では、システム11700は、より多い、より少ない、または異なるデバイス及びシステムを含んでよい。
コンピューティングシステム11706は、サーバコンピュータ、パーソナルコンピュータ、スマートフォン、ラップトップコンピュータ、及び他のタイプのコンピューティングデバイス等、様々なタイプのコンピューティングデバイスを含んでよい。説明を簡単にするために、本開示は、XR可視化デバイス11702及びコンピューティングシステム11706の処理回路、データストレージシステム、及び通信インタフェースによって行われているアクションを、全体としてXR可視化デバイス11702及びコンピューティングシステム11706によって行われているとして記載している場合がある。通信ネットワーク11704は、ローカルエリアネットワーク、インターネット、及び/または他のタイプの通信ネットワーク等、様々なタイプのネットワークを含んでよい。整形外科手術システム100(図1)の様々なコンピューティングシステムは、システム11700を含んでよい。例えば、術中ガイダンスシステム108は、システム11700を含んでよい。いくつかの例では、XR可視化デバイス11702は、図5の例に示すように実施されてよい。
図117の例では、XR可視化デバイス11702は、整形外科医によって着用されてよく、表示のためにXR可視化を出力してよい。いくつかの例では、XR可視化デバイス11702は、他のタイプのユーザ(例えば、看護師、医療技師、または他のタイプのユーザ)によって着用され、表示のためにXR可視化を出力してよい。XR可視化デバイス11702は、コンピューティングシステム11706の1つまたは複数から整形外科手術のワークフローステップに関する情報にアクセスしてよい。XR可視化デバイス11702とほぼ類似のまたは同じXR可視化デバイスが、1人または複数の人が整形外科手術のワークフローステップに関するガイダンスを提供するAR、MR及び/またはVR画像を観察可能なように、1人または複数の看護師、1人または複数の医療技師、または1人または複数の追加の外科医等の手術室の他の人によって着用されてよい。
ある例では、XR可視化は、1つまたは複数の仮想チェックリスト項目のセットを含む。1つまたは複数の仮想チェックリスト項目のそれぞれは、整形外科手術(例えば、肩関節形成、足関節形成、または他のタイプの整形外科手術)のステップのチェックリストの項目に対応する。ステップは、手順のステップの物理的または機能的特性に従って、ステップが行われる順番に従って順に配置されてよい、または、局所的にステップの主題にまとめられてよい。さらに、この例では、XR可視化デバイス11702のカメラまたは他のセンサは、仮想チェックリスト項目のセットの仮想チェックリスト項目を選択する整形外科医または他のユーザのコマンドを検出してよい。いくつかの例では、XR可視化デバイス11702とは別個の1つまたは複数のデバイスが、コマンドを検出してよい。例えば、1つまたは複数のカメラ、マイクロフォン、または手術室に配置された他のタイプのデバイスが、コマンドを検出してよい。しかし、説明を簡単にするために、本開示は、コマンドを検出するとしてXR可視化デバイス11702を記載する。しかしながら、コマンドを検出するXR可視化デバイス11702の記載は、コマンドを検出する1つまたは複数の他のタイプのデバイスに該当し得る。非接触型コマンドの検出に応答して、XR可視化デバイス11702は、選択された仮想チェックリスト項目に対応する整形外科手術のステップに関する追加情報を含むようにXR可視化を更新してよい。
いくつかの例では、コマンドは非接触型コマンドである。非接触型コマンドは、整形外科医または他のユーザがいずれの固体物体にも触れることなく行われる。例えば、非接触型コマンドは、空中で行われるハンドジェスチャであってよい。例えば、非接触型コマンドは、XR可視化の仮想要素に向けられたつまむジェスチャであってよい。いくつかの例では、非接触型コマンドは音声コマンドである。
他の例では、XR可視化デバイス11702は、接触を伴うコマンドを検出してよい。例えば、XR可視化デバイス11702は、ユーザ(例えば、整形外科医または他のタイプのユーザ)がユーザの右手の甲をユーザの左手の1つまたは複数の指でタップするハンドジェスチャの形態の第1のコマンドを検出してよい。この例では、XR可視化デバイス11702は、ユーザがユーザの左手の甲をユーザの右手の1つまたは複数の指でタップするハンドジェスチャの形態の第2のコマンドを検出してよい。別の例では、ユーザは、手術台の隅または手術アイテム等、表面(例えば、滅菌された表面)をタップしてよい。
コマンドが非接触型コマンドである例では、整形外科医または他のユーザは、いずれの固体物体にも触れることなく、追加情報を見ることができるので、マウス、キーボードまたはタッチスクリーン等の物理的コンピュータユーザインタフェースデバイスに整形外科医または他のユーザが触れることによる汚染という追加の危険が無い。汚染の危険を減らすことに関する類似の考慮事項は、外科医自身の手または滅菌された手術アイテム等、既に滅菌された表面への接触ベースのコマンドにも適用され得る。さらに、コマンド(例えば、非接触型コマンド)がハンドジェスチャである例では、情報にアクセスするためのハンドジェスチャの使用は、上記音声コマンドに伴う問題を回避し得るが、音声コマンドもいくつかの例で使用されてよい。このように、整形外科手術のワークフローチェックリストを取り扱うコンピューティングシステム(例えば、XR可視化デバイス11702、コンピューティングシステム11706のうちの1つ等)は、汚染を広げる媒介物として働くコンピューティングシステムのリスクを低減することによって改善されてよい。さらに、仮想チェックリスト項目は、手術場所の焦点面に比較的近い焦点面にXR可視化で提示され得るので、整形外科医は、仮想チェックリスト項目を見るために眼鏡を変えたり、外したりする必要が無い。従って、様々な例において、本開示の技術は、視力障害のある整形外科医または他のユーザにとって特に、コンピューティングシステムのアクセス可能性を向上させ得る、また、整形外科医または他のユーザが、本開示の技術が無ければ仮想チェックリスト項目へのアクセスに必要であったステップをスキップすることを可能にして、コンピューティングシステムの使用の効率を向上させ得る。
XR可視化デバイス11702は、XR可視化で様々な仮想チェックリスト項目を提示してよい。例えば、XR可視化は、整形外科医が行っている整形外科手術の現在のステップに対応する仮想チェックリスト項目を含んでよい。この例では、XR可視化は、整形外科手術の完了したステップに対応する仮想チェックリスト項目を除外してよい。さらに、いくつかの例では、XR可視化は、整形外科手術の現在のステップの後に生じる整形外科手術の1つまたは複数のステップに対応する仮想チェックリスト項目を除外してよい。例えば、一例において、XR可視化デバイス11702は、現在のステップの後に生じる整形外科手術の全てのステップに対応する仮想チェックリスト項目を除外してよい。別の例では、XR可視化は、整形外科手術の次のステップを除く整形外科手術の全てのステップに対応するチェックリスト項目を除外してよい。いくつかの例では、XR可視化の仮想チェックリスト項目の表示されるセットは、ユーザ設定可能である。
異なる整形外科手術には異なるステップがある。例えば、膝関節形成を行う一連のステップは、逆肩関節形成を行うために必要な一連のステップとは異なる。一例では、肩関節形成の一連のステップは、切開ステップ、上腕骨頭を切断するステップ、リーミングガイドピンのためにドリルで穴を開けるステップ、関節窩リーミングプロセスを行うステップ、関節窩インプラントを取り付けるステップ、上腕骨を準備するステップ、上腕骨インプラントを取り付けるステップ、及び切開を縫合するステップを含んでよい。いくつかの例では、ステップは、ネスト化されたサブステップを含んでよい。いくつかの例では、一連のステップは、図10の移植、上腕骨切断、ガイド取付、関節窩リーミング、及び関節窩インプラントのステップを含んでよい。一部のこのような例では、整形外科手術の次のステップは、サブステップであってよい。上記ステップ等のステップは、例えば、AR、MRまたはVR可視化を使用して、チェックリスト項目として提示されてよい。当然、足関節形成のステップは、他のタイプの整形外科手術のステップとも異なってよく、仮想ワークフローガイダンス及び仮想チェックリストは、所与のタイプの足関節形成または他の整形外科手術に対して規定された特定のステップをガイド及び追跡するように規定されてよい。
さらに、整形外科手術は、特定の患者に合わせてカスタマイズされてよい。例えば、骨棘を取り除く追加のステップが、ある患者の肩関節形成術に必要な場合があるが、他の患者の肩関節形成術では必要でない場合がある。異なる患者に対する同じ手術内でばらつきがあり得るという事実は、外科医及び手術室要員の精神的負担を増加させ得る。従って、XR可視化は、特定の患者に合わせてカスタマイズされた整形外科手術の患者固有のステップまたはサブステップに対応する仮想チェックリスト項目を含んでよい。患者固有のステップまたはサブステップに対応する仮想チェックリスト項目を含むことは、個々の患者に対してどのように整形外科手術を行うかを手術要員に思い出させるのに役立ち得る。
XR可視化は、仮想チェックリスト項目の様々なタイプの情報を提示してよい。例えば、一例では、XR可視化の仮想チェックリスト項目は、整形外科手術の対応するステップを識別するテキストを含んでよい。いくつかの例では、XR可視化の仮想チェックリスト項目は、整形外科手術の対応するステップを表すアイコンまたは他のテキストでないグラフィックを含んでよい。いくつかの例では、仮想チェックリスト項目は、整形外科手術の対応するステップでどの手術アイテム(例えば、ツール、インプラント等)を使用すべきかを指定してよい。XR可視化は、様々なフォーマットの仮想チェックリスト項目を提示してよい。例えば、XR可視化は、仮想チェックリスト項目を項目の行または列として提示してよく、各行または各列は、テキスト、アイコン、または他の情報を含み得る。いくつかの例では、XR可視化は、3次元のカードスタックフォーマットで仮想チェックリスト項目を提示してよく、この場合、仮想チェックリスト項目は、スタックから除去またはスタックに追加し得る異なる仮想カードの形である。
いくつかの例では、仮想チェックリスト項目は、個々の患者に固有の整形外科手術のステップに対応してよい。言い換えると、仮想チェックリスト項目は、他の患者の整形外科手術のバージョンに含まれない患者固有の整形外科手術のバージョンに含まれるステップに対応してよい。例えば、上記肩関節形成術の例では、XR可視化は、第1の患者の手術中、骨棘を取り除くステップに対応する仮想チェックリスト項目を含んでよいが、骨棘を取り除く必要のない第2の患者の手術ではこの仮想チェックリスト項目を含まない。
XR可視化デバイス11702は、様々なタイプの追加情報をXR可視化で提示してよい。一例では、追加情報は、整形外科手術のステップを記載する追加のテキストを含んでよい。例えば、追加情報は、整形外科医または他の人が以前に書いた覚書を含んでよい。いくつかの例では、以前に書いた覚書は、整形外科医が手術をしている患者に固有であってよい。例えば、患者固有の以前に書かれた覚書は、第1の患者の骨の特定の位置にある嚢胞を避けるように特定の方法でネジを取り付けるように整形外科医に知らせてよい。この例では、他の患者は、第1の患者と同じ位置に嚢胞を有してない場合がある。いくつかの例では、以前に書かれた覚書は、患者に共通であり得るが、個々の外科医、病院、ケアネットワーク、または他のグループに固有であってよい。例えば、外科医は常に、手術の特定のステップに関して自分個人の覚書にアクセスしたい可能性がある。
いくつかの例では、追加情報は、整形外科手術のステップに関連する1つまたは複数の仮想3次元物体を含んでよい。言い換えると、XR可視化デバイス11702は、整形外科手術のステップに関連する1つまたは複数の仮想3次元物体を含むようにXR可視化を更新してよい。3次元物体は、整形外科手術のステップに関与する骨の1つまたは複数の仮想3次元モデルを含んでよい。例えば、本開示の他の箇所に記載される肩関節形成術の文脈で、3次元物体は、患者の肩甲骨の3次元モデルを含んでよい。この例では、XR可視化は、現実世界の物体に対応しない1つまたは複数の仮想3次元物体を含んでよい。例えば、仮想3次元物体は、仮想リーミング軸を含んでよい。手術中にXR可視化に示される仮想3次元モデルは、術前フェーズ302中に示される仮想3次元モデルと同じであってよい。従って、整形外科医または他のユーザは、整形外科医が術前計画フェーズ中、仮想3次元モデルを使用している場合があるので、その仮想3次元モデルを既によく知っていてよい。従って、いくつかの例では、XR可視化は、図15A、図15B、図15C、図15D、図16、図17、図27、図28、図29、図30等に示される仮想3次元モデル等、仮想3次元モデルを含んでよい。いくつかの例では、3次元モデルの1つまたは複数は、手術を行っている個々の患者に固有である。いくつかの例では、3次元モデルの1つまたは複数は、患者に汎用である。
いくつかの例では、XR可視化はまた、仮想3次元物体を制御する仮想コントロールを含んでよい。整形外科医または他のユーザは、非接触型コマンド(例えば、ハンドジェスチャまたは音声コマンド)または接触ベースのコマンドを使用して、仮想コントロールを選択してよい。仮想コントロールは、整形外科医または他のユーザが、個々の仮想3次元物体を隠すまたは表示する、仮想3次元物体を回転させる、仮想3次元物体をスケール調整する、または仮想3次元物体を他の方法で制御するのを可能にし得る。本開示の他の箇所で詳細に説明した図13は、整形外科手術のステップに関連付けられた仮想3次元物体を制御する仮想コントロールを含むXR可視化のインタフェースの例である。詳細には、図13は、肩関節形成術の関節窩リーミングステップに関連付けられた仮想3次元物体を制御する仮想コントロールを含むXR可視化のインタフェースの例である。いくつかの例では、XR可視化デバイス11702は、整形外科医または他のユーザからのコマンドに応答して、1つまたは複数の仮想3次元物体を回転またはスケール調整するようにXR可視化を更新してよい。いくつかのこのような例では、コマンドは、ハンドジェスチャまたは音声コマンド等、非接触型コマンドであってよい。
さらに、いくつかの例では、XR可視化デバイス11702は、1つまたは複数の仮想3次元物体に適用される整形外科手術のステップのアニメーションを、整形外科医または他のユーザに見せるようにXR可視化を更新してよい。アニメーションは、ツールまたはインプラント等の1つまたは複数の仮想3D物体が最初の位置から、中間の位置、及び最後の位置に徐々に動くのを見せて、手順のステップを完了するのに必要な動作を表してよい。例えば、肩関節形成の文脈で、XR可視化は、上腕骨頭を切断するステップの方法のアニメーションを見せてよい。これは、整形外科手術のステップの行い方、または、患者固有の手術計画に従った特定の方法でのステップの行い方を整形外科医または他のユーザが思い出すのを支援してよい。いくつかの例では、アニメーションは、個々の患者に固有である。いくつかの例では、アニメーションは、患者の集合にわたって汎用である。
いくつかの例では、XR可視化デバイス11702は、整形外科医または他のユーザからの、整形外科手術のステップに完了のマークを付けるコマンド(例えば、非接触型コマンドまたは接触ベースのコマンド)を検出してよい。コマンドが非接触型コマンドである例では、非接触型コマンドは、ハンドジェスチャまたは音声コマンドであってよい。ステップに完了のマークを付けることは、ステップが完了したことを示すデータを(例えば、コンピューティングシステム11706の1つによって)記憶することを含んでよい。さらに、コマンドに基づいて、XR可視化デバイス11702は、整形外科手術のステップのチェックリストの次のステップに対応する仮想チェックリスト項目を含むようにXR可視化を更新してよい。例えば、XR可視化デバイス11702は、整形外科医からのコマンドを検出することに応答して、整形外科手術の現在のステップに完了のマークを付けるようにXR可視化を更新してよい。
いくつかの例では、コンピューティングシステム11706の1つまたは複数は、整形外科医以外の1人または複数の人に仮想チェックリスト項目を表示してよい。例えば、XR可視化デバイスまたはコンピュータは、XR可視化デバイス11702が整形外科医に表示するのと同じ仮想チェックリスト項目を表示してよい。これによって、他の人が、手術の進行を追跡するのを可能にし得る。このような他の人は、看護師、製品担当者、生徒、他の外科医等を含み得る。術中協力及び教育のための技術は、本開示の他の箇所に記載する。
いくつかの例では、外科医以外の人が、整形外科手術のステップに完了のマークを付けることに関わってよい。例えば、整形外科医からの、整形外科手術のステップに完了のマークを付けるコマンドを検出することに応答して、第2の人に関連付けられたコンピューティングデバイス(例えば、コンピューティングシステム11706の1つ)は、整形外科手術のステップが完了したことを確認するように第2の人に促してよい。この例では、第2の人に関連付けられたコンピューティングデバイスは、XR可視化デバイス(例えば、MRまたはVR可視化デバイス)に通信可能に結合される。従って、手術室のスタッフ(例えば、外科医、看護師等)は、仮想チェックリスト項目を見ることができ得るリモートユーザに通信及び/または相談してよい。
例えば、第2の人に関連付けられたコンピューティングデバイスは、第2の人が着用するXR可視化デバイス、第2の人のスマートフォン、第2の人が使用するコンピュータ等であってよい。第2の人に関連付けられたコンピューティングデバイスは、XR可視化デバイスに通信ネットワーク11704を介して通信可能に結合されてよい。いくつかの例では、1つまたは複数の他のコンピューティングデバイス(例えば、コンピューティングシステム11706の他のコンピューティングデバイス)が、XR可視化デバイス11702または他のデバイスからの情報を処理して、第2の人に関連付けられたコンピューティングデバイスに送信する情報を生成してよい。このような情報を受信すると、第2の人に関連付けられたコンピューティングデバイスに、プロンプトを生成させてよい。
この例では、整形外科手術のステップのチェックリストの次のステップに対応する仮想チェックリスト項目を含むようにXR可視化を更新する一部として、XR可視化デバイス11702は、整形外科手術のステップが実際に完了していることを第2の人が確認したことに応答して、整形外科手術のステップのチェックリストの次のステップに対応する仮想チェックリスト項目を含むようにXR可視化を更新してよい。このように、第2の人は、整形外科手術のステップが実際に完了していることを検証する機会を有する。これによって、手術手順のステップを誤ってスキップすることを防ぐことを支援し得、及び/またはケアの一般基準または患者に固有の要件に従ってステップが行われることを確実にすることを支援し得る。他の例では、整形外科医以外の人が、整形外科手術のステップに完了のマークを付ける最初のコマンドを行ってよく、外科医または他の人が、ステップが実際に完了したことを確認してよい。
いくつかの例では、ステップが完了したことを第2の人が検証するのを可能にするために、第2の人に関連付けられたコンピューティングデバイスは、手術部位を見るように配置されたカメラからのビデオフィードを表示してよい。例えば、一例では、カメラは、整形外科医が着用するXR可視化デバイス11702に一体化されてよい。別の例では、カメラは、手術室のフレームまたは壁に取り付けられる。
いくつかの例では、コンピューティングシステム11706の1つは、手術手順のどのステップが手術手順の現在のステップであるかに基づいて、様々な手術用ツールを制御してよい。例えば、コンピューティングシステムは、特定のツールが現在のステップ中に使用されないはずである場合、そのツールを停止してよい。例えば、肩関節形成術の文脈で、コンピューティングシステムは、リーミングドリルが患者の上腕骨頭の切断のステップ中に使用されないはずである場合、患者の上腕骨頭を切断するステップ中リーミングドリルを停止してよい。これによって、外科医が整形外科手術のステップをスキップするのを防ぐのを支援し得る。特定のステップでどの手術用ツールを使用してよいかを制御するために、コンピューティングシステム11706は、手術手順の特定のステップで使用され得る手術用ツールの所定のリストにアクセスしてよい。
いくつかの例では、本明細書に記載のワークフロー管理プロセスは、本開示の他の箇所に記載するように、看護師が正しいツールを外科医に渡すのを支援するプロセスをガイドしてよい。例えば、看護師に提示されるXR可視化の仮想物体は、整形外科手術の次のステップのためにどのツールを外科医に渡すべきかを看護師に示してよい。別の例では、手術用ツール内またはトレイに組み込まれたライトが、整形外科手術の次のステップでどのツールが使用されるかを看護師に示してよい。このような例は、本開示の他の箇所により詳細に記載されている。
いくつかの例では、コンピューティングシステム(例えば、コンピューティングシステム11706の1つ)は、看護師または他の個人に対して表示するためにチェックリスト項目を出力する。いくつかのこのような例では、XR可視化デバイス11702が整形外科手術のステップに完了のマークを付けるコマンドを検出するのではなく、看護師が整形外科手術の次のステップで使用される手術アイテム(例えば、手術用ツール、インプラント、手術アイテムのボックス等)のコード(例えば、バーコード)をコンピューティングシステムのデバイスを使用して光学スキャンすると、コンピューティングシステムが、整形外科手術のステップに完了のマークを付けてよい。これは、チェックリストを前に進めることと、使用可能な手術アイテムの残りを更新することの複合効果を有し得る。この例では、看護師が整形外科手術の次のステップのための予測される手術アイテムをスキャンしなかった場合、コンピューティングシステムが、看護師に警告してよい。
いくつかの例では、システム11700のコンピューティングシステムは、手術ノートを記録して、手術ノートを整形外科手術のステップに自動的に関連付けてよい。例えば、外科医は、整形外科手術の途中でノートを口述してよい。この例では、XR可視化デバイス11702またはコンピューティングシステム11706のうちの1つのマイクロフォンが、外科医の声を検出及び記録してよい。コンピューティングシステム11706の1つは、口述されたノートを記憶してよい(及び、いくつかの例では、音写してよい)。いくつかの例では、看護師が、外科医が口述したノートを書き写してよい。さらに、コンピューティングシステムは、整形外科手術の特定のステップが現在のステップである間、口述されたノートを特定のステップに関連付けてよい。言い換えると、手術中に口述されたノートは、ノートが口述された手術のステップに関連付けられてよい。従って、整形外科手術の特定のステップのノートは、整形外科手術のステップに基づいて読み出されてよい。
同様に、いくつかの例では、1つまたは複数のコンピューティングシステム11706は、手術のビデオの一部を手術の対応するステップに自動的に関連付けてよい。これによって、ユーザの関心のある手術のステップに対応するビデオの部分にユーザが素早くジャンプするのを可能にし得る。
図118は、本開示の技術による、整形外科手術のワークフローのステップを通して、外科医、看護師、または他の医療技師等のユーザを支援する例示の動作を示すフローチャートである。図118の例では、整形外科医が着用するXR可視化デバイス11702は、表示のためにXR可視化を出力してよい(11800)。XR可視化は、1つまたは複数の仮想チェックリスト項目のセットを含む。1つまたは複数の仮想チェックリスト項目のそれぞれの項目は、足関節形成または肩関節形成等、整形外科手術のステップのチェックリストの項目に対応する。
さらに、XR可視化デバイス11702は、整形外科医の非接触型コマンド(例えば、ハンドジェスチャまたは音声コマンド)を検出して、仮想チェックリスト項目のセットの仮想チェックリスト項目を選択してよい(11802)。非接触型コマンドは、整形外科医が固体物体のいずれにも触れることなく実行され、カメラ、マイクロフォン、または外科医が着用するXR可視化デバイス、11702手術室の他の人が着用するXR可視化デバイスに関連付けられた他のセンサ、またはXR可視化デバイスに搭載されていない他のセンサによって検出されてよい。さらに、非接触型コマンドを検出することに応答して、XR可視化デバイス11702は、選択された仮想チェックリスト項目に対応する整形外科手術のステップに関する追加情報を含むようにXR可視化を更新してよい(11804)。
いくつかの例では、XR可視化デバイス11702は、整形外科医が手術中、着用または他の方法で使用するMR可視化デバイスまたはAR可視化デバイスである。いくつかの例では、XR可視化デバイス11702はVR可視化デバイスである。このような例では、整形外科医は、VR可視化デバイスを使用して、整形外科手術のシミュレーションを行ってよい。このようなシミュレーション中、整形外科医がMR可視化デバイスまたはAR可視化デバイスで仮想チェックリスト項目を見るであろうものと同じように、整形外科医が仮想チェックリスト項目を見ることが役立ち得る。
図119は、患者の肩に整形外科手術を行いながら、整形外科医、看護師、または他の医療技師のユーザが見る1つまたは複数の仮想チェックリスト項目のセットを含む例示のXR可視化11900を示す概念図である。図119の例では、患者は、手術台に横たわっており、整形外科医は、患者を上から見ている。整形外科医は、患者の肩に既に切開11902を行い、関節窩表面11904を露出させている。
本開示の技術によると、XR可視化11900は、仮想チェックリスト項目11906のセットを含む。仮想チェックリスト項目11906は、整形外科医が患者に対して行っている整形外科手術のステップのチェックリストの項目に対応する。図119の例では、仮想チェックリスト項目11906が、仮想カードのスタックの形態で提示され、各カードは、整形外科手術のステップ(または、サブステップ)に対応する。他の例では、1つまたは複数の仮想チェックリスト項目11906は、XR可視化において列の形態で提示されてよい。いくつかの例では、1つまたは複数の仮想チェックリスト項目11906は、図10の選択可能なボタン1002の配置と類似した行の形態である。
仮想チェックリスト項目11908は、整形外科手術のステップを記載するテキストと、そのステップに対応するグラフィックとを含む。詳細には、仮想チェックリスト項目11908は、リーミングガイドピンを取り付けるステップを記載するテキストを含む。さらに、図119の例に示すように、仮想チェックリスト項目11908は、患者固有のコンテンツ、すなわち、患者が烏口突起に骨嚢胞を有し、誤って接触することを避けるべきことを含む。このような患者固有のコンテンツは、全ての患者に存在するわけではない。いくつかの例では、仮想チェックリスト項目11908は、現在のステップに関連付けられた1つまたは複数の警告を含んでよい。例えば、図161の固定ネジ16102A及び16102Bを取り付けるステップに関連付けられた仮想チェックリスト項目は、過剰なトルクを固定ネジ16102A及び16102Bにかけることに対するテキストまたはグラフィックでの警告を含み得る。
本開示の他の箇所に記載するように、術前フェーズ302中(図3)に整形外科手術の手術計画が開発されてよい。例えば、手術計画は、BLUEPRINT(商標)システムを使用して開発されてよい。しかしながら、外科医は、整形外科手術を行っている時に手術計画から外れる場合がある。言い換えると、術中フェーズ306(図3)中の外科医の動作が、術前フェーズ302(図3)中に規定された手術計画に記載の動作と異なる場合がある。
外科医が手術計画から外れる多くの理由がある。例えば、術前フェーズ302中に開発された手術計画は、患者の解剖学的構造に関して不正確な推定または仮定に基づいている場合がある。例えば、一例では、術前フェーズ302中に開発された手術計画は、骨棘の位置またはサイズの不正確な推定に基づいている場合がある。
外科医が術前フェーズ302中に開発された手術計画から外れ得る理由の別の例では、手術計画は、患者の病変の不正確な推定に基づき得る。例えば、外科医は、患者の肩関節を開いた時に、患者の肩関節の関節窩びらんのレベルが、患者の肩関節の以前の画像で理解したのとはWalch変形性肩関節症分類システムで異なるカテゴリに一致することを見出す場合がある。肩修復手術の場合、患者の病変の不正確な推定によって、外科医が、標準的な解剖学的肩関節形成ではなく、逆肩関節形成を行うことが必要となる場合がある、または、逆の場合もある。
外科医が術前フェーズ302中に開発された手術計画から外れる理由の別の例では、手術計画が、骨密度の不正確な推定に基づいている場合がある。例えば、この例では、骨密度が、上腕骨または肩甲骨等、骨の特定の領域で低すぎる場合、骨が、術前フェーズ302中に計画したインプラントタイプ等のインプラントを十分に支えることができない場合がある。骨がインプラントを十分に支えることができない場合、骨折することがある、または、インプラントを骨に固定することが不可能な場合がある。結果として、外科医は、手術計画とは異なるように骨を切断、ドリル、またはリーミングしてインプラントの着座面を改良しなければならない、または異なるインプラントタイプを使用しなければならない場合がある。例えば、一例では、最初の手術計画は、ステムレス上腕骨インプラントの使用を要求しているが、上腕骨の骨密度が一定の領域で低すぎる場合、外科医は、ステム付き上腕骨インプラントに切り替えたい場合がある。
外科医が術前フェーズ302中に開発された手術計画から外れる理由の別の例では、単に手術計画に誤りがあったと外科医が気付く場合がある。外科医はまた、不注意で手術計画から外れる場合がある。例えば、外科医は、手術計画が示した角度と幾分異なる角度で骨を切断する場合がある。例えば、外科医は、上腕骨頭を切除し過ぎる場合がある。いくつかの例では、切断の角度が異なる結果として、異なるインプラントを使用して補償しないと、可能な可動域が異なることになり得る。
本開示の技術によると、コンピューティングシステムが、第1の手術計画を指定する情報モデルを取得してよい。第1の手術計画は、術前に規定された手術計画であってよい。コンピューティングシステムは、整形外科手術の術中フェーズ306中に第1の手術計画を修正して、第2の手術計画を生成してよい(図3)。さらに、本開示の技術によると、XRシステムは、第2の手術計画に基づいた表示のためのXR可視化を提示してよい。これによって、外科医は、XR可視化の使用を開始して、外科医が第2の手術計画を実行するのを支援するのが可能になる。
図120は、本開示の技術による、第1の手術計画を術中フェーズ306中に修正して、第2の手術計画を生成する例示のシステム12000を示す概念図である。システム12000は、コンピューティングシステム12002、XRシステム12004、ストレージシステム12006、及びネットワーク12008を含む。図120の例では、XRシステム12004は、可視化デバイス12010を含む。図2のMRシステム212と同様、XRシステム12004は、可視化デバイス12010とは別個の1つまたは複数のプロセッサ及びストレージデバイス等、他のコンポーネントも含んでよい。図120の例に示すように、可視化デバイス12010は、ヘッドマウントの可視化デバイスであってよい。他の例では、可視化デバイス12010は、ホログラフィックプロジェクタ、またはユーザがMR可視化を可視化するのを可能にする他のタイプのデバイスであってよい。いくつかの例では、コンピューティングシステム12002の機能は、可視化デバイス12010またはXRシステム12004に含まれる1つまたは複数のプロセッサによって行われる。他の例では、コンピューティングシステム12002の機能の一部または全ての機能は、可視化デバイス12010の外部のプロセッサによって行われる。
本開示の他の箇所に記載するように、コンピューティングシステム12002は、システムとして動作する1つまたは複数のコンピューティングデバイスを含んでよい。いくつかの例では、コンピューティングシステム12002は、仮想計画システム102(図1)または術中ガイダンスシステム108(図1)の一部である。コンピューティングシステム12002は、手術計画を記述する情報モデルを取得してよい。例えば、コンピューティングシステム12002は、例えば、BLUEPRINT(商標)等の手術計画ソフトウェアを使用して、情報モデルを生成してよい。いくつかの例では、コンピューティングシステム12002は、通信媒体または非一時的コンピュータ可読媒体等のコンピュータ可読媒体から情報モデルを取得してよい。ストレージシステム12006は、情報モデルを記憶してよい。
図121は、本開示の技術による、第1の手術計画を術中フェーズ306中に修正して、第2の手術計画を生成する例示の動作のフローチャートである。図121の例では、コンピューティングシステム12002は、患者に対して行われる整形外科手術の第1の手術計画を指定する情報モデルを取得してよい(12100)。例えば、コンピューティングシステム12002は、本開示の他の箇所に記載するように、第1の手術計画を生成または受信してよい。さらに、図121の例では、コンピューティングシステム12002は、整形外科手術の術中フェーズ306(図3)中に第1の手術計画を修正して第2の手術計画を生成してよい(12102)。可視化デバイス12010は、整形外科手術の術中フェーズ306中、第2の手術計画の基づいた表示のための可視化を提示してよい(12104)。可視化は、MR可視化またはVR可視化等のXR可視化であってよい。
いくつかの例では、第1の手術計画は、患者に対して行われる整形外科手術の術前に規定された手術計画である。言い換えると、第1の手術計画は、術前フェーズ302(図3)中に規定されてよい。いくつかの例では、第1の手術計画は、患者に対して行われる整形外科手術の術中に規定された手術計画である。例えば、一例では、術前に規定された手術計画が、整形外科手術の途中で修正されて第1の手術計画が生成されていて、第1の手術計画はさらに修正されて、第2の手術計画が生成されてよい。
第1の手術計画は、様々な点で第2の手術計画と異なってよい。例えば、第1の手術計画は、手術用ツールまたはインプラント等、第1の手術アイテムの使用を指定してよい。この例では、コンピューティングシステム12002は、第2の手術計画が第1の手術アイテムの代わりに第2の手術アイテムの使用を指定するように、第1の手術計画を修正してよい。この例では、第2の手術アイテムは、第1の手術アイテムとは異なる。例えば、第1の手術アイテムと第2の手術アイテムは、サイズの異なる同じタイプのアイテムであってよい、または、全く異なるタイプのアイテムであってよい。例えば、第1の手術アイテムは、ステムレス上腕骨インプラントであってよく、第2の手術アイテムは、ステム付き上腕骨インプラントであってよい、または、その逆でもよい。いくつかの例では、第1の手術計画は、切断角度または位置(例えば、上腕骨頭の切除の切断角度または位置)という点で第2の手術計画と異なってよい。
いくつかの例では、第1の手術計画は、第1のタイプの手術の実行を指定してよい。この例では、コンピューティングシステム12002は、第2の手術計画が第1のタイプの手術とは異なる第2のタイプの手術を指定するように、第1の手術計画を修正してよい。例えば、第1のタイプの手術と第2のタイプの手術は、ステムレスの標準的全肩関節形成、ステム付きの標準的全肩関節形成、ステムレスの逆肩関節形成、ステム付きの逆肩関節形成、補強関節窩使用標準的全肩関節形成、または補強関節窩使用逆肩関節形成のうちの異なる手術であってよい。他の例では、第1のタイプの手術と第2のタイプの手術は、異なるタイプの足首の手術または他のタイプの関節の手術であってよい。肩の手術手順を参照して技術を記載したが、手術計画に対する類似の術中変更は、足関節形成術等、他のタイプの整形外科手術手順に関しても生じ得る。
整形外科手術が肩修復手術であるいくつかの例では、第1の手術計画は、患者の関節窩の第1のリーミング軸を指定してよい。この例では、第2の手術計画は、第1のリーミング軸とは異なる、患者の関節窩の第2のリーミング軸を指定してよい。例えば、第1のリーミング軸と第2のリーミング軸は、角度、進入点等のパラメータが異なってよい。整形外科手術が肩修復手術であるいくつかの例では、第1の手術計画は、患者の関節窩の第1のリーミング深さを指定してよい。この例では、第2の手術計画は、第1のリーミング深とは異なる、患者の関節窩の第2のリーミング深さを指定してよい。
さらに、整形外科手術が肩修復手術であるいくつかの例では、第1の手術計画は、第1の上腕骨の切断深さを指定してよく、第2の手術計画は、第1の上腕骨の切断深さとは異なる第2の上腕骨の切断深さを指定してよい。整形外科手術が肩修復手術であるいくつかの例では、第1の手術計画は、第1の上腕骨の切断角度を指定し、第2の手術計画、第1の上腕骨の切断角度とは異なる第2の上腕骨の切断角度を指定する。
いくつかの例では、第1の手術計画は、第1のインプラント位置を指定してよく、第2の手術計画は、第1のインプラント位置とは異なる第2のインプラント位置を指定する。例えば、一例では、第1のインプラント位置と第2のインプラント位置は、骨にインプラントを取り付ける異なる位置であってよい。別の例では、第1のインプラント位置と第2のインプラント位置は、上腕骨インプラント等、インプラントのステムの異なる深さであってよい。
コンピューティングシステム12002は、第2の手術計画を生成するために第1の手術計画を修正するかどうかと修正の仕方とを決定する様々な動作を行ってよい。例えば、コンピューティングシステム12002は、整形外科手術のステップが第1の手術計画に従って行われる場合、患者の骨の表面が整形外科手術のステップの実行の後に有する3次元形状を表す計画した深さマップを第1の手術計画に基づいて生成してよい。さらに、コンピューティングシステム12002は、外科医が整形外科手術のステップを実際の行った後の患者の骨の表面の3次元形状を表す実現された深さマップを生成してよい。この例では、コンピューティングシステム12002は、可視化デバイス12010の1つまたは複数のデプスカメラ(例えば、デプスカメラ(複数可)532(図5))によって提供された情報を使用して、深さマップ(例えば、実現された深さマップ)を生成してよい。コンピューティングシステム12002は、実現された深さマップと計画した深さマップの間の差を決定してよい。例えば、コンピューティングシステム12002は、実現された深さマップと計画した深さマップの間の角度と深さの差を決定してよい。コンピューティングシステム12002は、実現された深さマップと計画した深さマップの間の決定された差に基づいて、第2の手術計画を生成してよい。例えば、コンピューティングシステム12002は、実現された深さマップと計画した深さマップの間の差を所与として、異なるタイプの手術または異なる手術アイテムが好ましいことを決定してよい。いくつかの例では、コンピューティングシステム12002は、マーカ(例えば、図30のマーカ3010)を使用して、骨及び手術用ツール等、物体の深さ及び向きを決定する。
いくつかの例では、整形外科手術は、振動鋸ツールを用いて上腕骨頭を切断する(例えば、上腕骨頭を切除する)ステップを含む肩修復手術である。このような例では、計画された切断面は、上腕骨頭を切断するステップが第1の手術計画に従って行われる場合、振動鋸ツールが上腕骨頭を切断する平面である。さらに、この例では、実現された切断面は、上腕骨頭を切断するステップの実行中、振動鋸ツールが実際に上腕骨頭を切断した平面である。この例では、コンピューティングシステム12002は、計画された切断面と実現された切断面の間の差を決定してよい。さらに、コンピューティングシステム12002は、実現された切断面と計画された切断面の間の決定された差に基づいて、第2の手術計画を生成してよい。
整形外科手術が振動鋸ツールを用いて上腕骨頭を切断するステップを含む肩修復手術であるいくつかの例では、コンピューティングシステム12002は、上腕骨頭と振動鋸ツールとを含むシーン内に3次元形状を表す深さマップを生成してよい。このような例では、コンピューティングシステム12002は、深さマップに基づいて、実現された切断面を決定してよい。いくつかの例では、マーカが振動鋸ツールに固定され、コンピューティングシステム12002は、上腕骨頭を切断するステップの実行中にキャプチャされたマーカのビデオ画像(例えば、RGB画像)に基づいて、実現された切断面を決定する。
さらに、整形外科手術が振動鋸ツールを用いて上腕骨頭を切断するステップを含む肩修復手術である一例では、第1の手術計画は、第1の上腕骨インプラントの使用を指定する。この例では、コンピューティングシステム12002は、第1の上腕骨インプラントを使用することから生じる第1の可動域を、実現された切断面に基づいて決定してよい。さらに、コンピューティングシステム12002は、第2の上腕骨インプラントの使用の結果、実現された切断面を所与として、第1の可動域ではなく第2の可動域を生じることを決定してよく、ここで、第2の上腕骨インプラントは、第1の上腕骨インプラントとは異なる。この例では、コンピューティングシステム12002は、実現された切断面を可動域にマッピングするケーススタディのデータベースを使用して、数学モデルを使用して、または、他のアルゴリズムに基づいて、第1の可動域を決定してよい。さらに、この例では、コンピューティングシステム12002は、第2の手術計画が第1の上腕骨インプラントの代わりに、第2の上腕骨インプラントの使用を指定するように、第2の手術計画を生成してよい。
整形外科手術がリーミングツールを用いた患者の関節窩をリーミングするステップを含む肩修復手術であるいくつかの例では、計画されたリーミング深さは、関節窩をリーミングするステップが第1の手術計画に従って行われる場合、リーミングツールが関節窩をリーミングする深さである。このような例では、実現されたリーミング深さが、関節窩をリーミングするステップの実行中にリーミングツールが関節窩を実際にリーミングした深さである。1つのこのような例では、コンピューティングシステム12002は、計画されたリーミング深さと実現されたリーミング深さの差を決定してよい。さらに、この例では、コンピューティングシステム12002は、実現されたリーミング深さと計画したリーミング深さの決定された差に基づいて、第2の手術計画を生成してよい。
さらに、整形外科手術が、患者の関節窩をリーミングするステップを含む肩修復手術である一例では、コンピューティングシステム12002は、関節窩とリーミングツールとを含むシーン内の3次元形状を表す深さマップを生成してよい。この例では、コンピューティングシステム12002は、深さマップに基づいて、実現されたリーミング深さを決定してよい。例えば、コンピューティングシステム12002は、リーミング後の関節窩に対応する深さマップの深さ値を使用して、関節窩がどのくらい深くリーミングされたかを決定してよい。いくつかの例では、第1のマーカがリーミングツールに固定され、第2のマーカが関節窩を有する肩甲骨に固定される。このような例では、コンピューティングシステム12002は、関節窩をリーミングするステップの実行中にキャプチャされた第1のマーカ及び第2のマーカのビデオ画像に基づいて、実現されたリーミング深さを決定してよい。
さらに、整形外科手術が、関節窩をリーミングするステップを含む肩修復手術である一例では、第1の手術計画は、第1の関節窩インプラントの使用を指定してよい。この例では、コンピューティングシステム12002は、第1の関節窩インプラントを使用することから生じる第1の可動域を、実現されたリーミング深さに基づいて、決定してよい。さらに、この例では、コンピューティングシステム12002は、第2の関節窩インプラントの使用の結果、実現されたリーミング深さを所与として、第1の可動域の代わりに、第2の可動域を生じることを決定してよく、ここで、第2の関節窩インプラントは、第1の関節窩インプラントとは異なる。コンピューティングシステム12002は、可動域を決定するための本開示の他の箇所に提供された例のいずれかに従って、可動域を決定してよい。さらに、コンピューティングシステム12002は、第2の手術計画が第1の関節窩インプラントの代わりに第2の関節窩インプラントの使用を指定するように、第2の手術計画を生成してよい。いくつかの例では、第2の可動域は、第1の可動域より大きい。
上記のように、可視化デバイス12010は、第2の手術計画に基づいてXR可視化を提示してよい。第2の手術計画に基づいたXR可視化は、本開示の他の箇所に記載される術前MRコンテンツのいずれか等、様々なタイプのコンテンツを含んでよい。例えば、XR可視化は、第2の手術計画に一致する整形外科手術のステップのチェックリストの項目に対応する1つまたは複数の仮想チェックリスト項目を含んでよい。可視化がMR可視化である例では、MR可視化は、仮想チェックリスト項目を含んでよく、現実世界の物体の画像も含んでよい。このような例では、現実世界の物体の画像は、可視化デバイス12010のシースルーのホログラフィックレンズを通して外科医が見る、または、可視化デバイス12010の画面で外科医が見る患者及び手術室の画像であってよい。
いくつかの例では、システム12000は、外科医が手術計画から外れる前に、手術計画から外れた結果を外科医が評価するのを可能にし得る。例えば、外科医は、ある骨棘、予測とは異なる骨密度、または他の要因を発見したために、手術計画で指定されたのと異なる切断角度もしくは深さ、異なるリーミング深さ、または異なる手術アイテムを使用する場合の結果を評価したい場合がある。システム12000が手術計画から外れた結果を外科医が評価するのを可能にするいくつかの例では、コンピューティングシステム12002は、術中フェーズ306(図3)中、手術計画からの提案された逸脱に基づいて、修正された手術計画を生成してよい。そうすると、外科医は、修正された手術計画を術中に検討する機会を有し得る。例えば、可視化デバイス12010は、修正された手術計画に基づいて、XR可視化を提示してよい。いくつかの例では、システム12000は、手術計画から外れたことによって生じ得る1つまたは複数の可動域を決定してよい。可動域は、症例履歴のデータベースのデータに基づいて、数学モデルに基づいて、ニューラルネットワークモデルに基づいて、または、他のタイプのアルゴリズムを使用して、決定されてよい。XR可視化は、可動域を提示してよい。例えば、システム12000は、図11A及び図11Bに関して記載したように、修正された手術計画から生じる可動域を提示してよい。
外科医は、様々な点で手術計画からの提案された逸脱を指定してよい。例えば、外科医が振動鋸ツールを使用している例では、外科医は、骨の手術計画で指定された切断面に対して特定の角度で振動鋸ツールを持っていてよい。この例では、外科医は次に、特定の角度で骨を切断した結果を決定するようにシステム12000に求める入力を提供してよい。例えば、外科医は、「代わりにこの切断面を使用するとどうなる?」と言う音声コマンドを提供してよい。外科医がドリルツールを使用している例では、外科医がドリル穴の位置または深さを変更することをどのように提案するかを示す音声コマンドを発してよい。同様に、外科医がリーミングツールを使用している場合、外科医は、提案する代替のリーミング深さを示す音声コマンドを発してよい。
コンピューティングシステム12002が手術計画を修正する時、コンピューティングシステム12002は、手術計画からの逸脱によって課される制約を所与として、整形外科手術の1つまたは複数の手術パラメータの最適化を試みてよい。例えば、コンピューティングシステム12002は、予測される可動域の最適化、皮質骨との接触の最適化、骨の高品質(例えば、高密度)の部分とインプラントの接触点の最適化、または他の要因の最適化を試みてよい。これらの要因は、インプラントの位置、インプラントのステムサイズ、インプラントの表面サイズ、及び他の手術パラメータを駆動し得る。さらに、いくつかの例では、コンピューティングシステム12002が手術計画を修正する時、コンピューティングシステム12002または他のコンピューティングシステムの一部であってよい処理デバイス8304(図83)は、修正された手術計画に基づいて次の手術アイテムを識別してよく、また、次の手術アイテムを識別する仮想情報をMR提示で提示してよい。
本開示は、ニューラルネットワーク等の人工知能(AI)技術を用いた整形外科分類と手術計画を記載する。いくつかの例では、このようなAI技術は、術前フェーズ302(図3)または手術ライフサイクルの他のフェーズ中に採用されてよい。ディープニューラルネットワーク(DNN)を含む人工ニューラルネットワーク(ANN)は、分類ツールとして非常に有望である。DNNは、入力層、出力層、及び入力層と出力層の間に1つまたは複数の隠れ層を含む。ANN及びDNNはまた、プール層等、1つまたは複数の他のタイプの層を含んでよい。
各層は、単に「ニューロン」と呼ばれることが多い人工ニューロンのセットを含んでよい。入力層の各ニューロンは、入力ベクトルから入力値を受け取る。入力層のニューロンの出力は、ANNの次の層への入力として提供される。入力層の後の層の各ニューロンは、前の層の1つまたは複数のニューロンの出力に伝搬関数を適用して、ニューロンへの入力値を生成してよい。ニューロンは次に、入力に活性化関数を適用して、活性化値を計算してよい。ニューロンは次に、活性化値に出力関数を適用して、ニューロンの出力値を生成してよい。ANNの出力ベクトルは、ANNの出力層の出力値を含む。
特に、肩の病変に関しては、整形外科手術の計画へのANNの適用に関していくつかの問題がある。例えば、いくつかの問題は、ANNが肩の病変に関して意味のある出力を提供できるように、ANNを構築及び訓練する方法に関する。整形外科手術の計画へのANNの適用に関する問題の別の例では、患者及びヘルスケア専門家は、コンピュータが行った決定を、特に、コンピュータがどのように決定を行ったかが明らかでない場合、信用したがらないことが理解できる。よって、患者及びヘルスケア専門家がANNの出力を安心して信用することを確実にするのを支援するように出力を生成する方法に関する問題がある。
本開示は、これらの問題を解決し、肩の病変に関する意味のある出力を提供するANN構造を提供し得る技術を記載する。例えば、DNN等の人工ニューラルネットワーク(ANN)は、入力層、出力層、及び入力層と出力層の間の1つまたは複数の隠れ層を有する。入力層は、複数の入力層ニューロンを含む。複数の入力層ニューロンの各入力層ニューロンは、複数の入力要素の異なる入力要素に対応する。出力層は、複数の出力層ニューロンを含む。
複数の出力層ニューロンの各出力層ニューロンは、複数の出力要素の異なる出力要素に対応する。複数の出力要素の各出力要素は、1つまたは複数の肩病変分類システムの異なる分類に対応する。この例では、コンピューティングシステムは、過去の肩の手術症例から複数の訓練データセットを生成してよい。各訓練データセットは、複数の訓練データ患者の異なる訓練データ患者に対応し、各訓練入力ベクトルと各目標出力ベクトルとを含む。
各訓練データセットについて、各訓練データセットの訓練入力ベクトルは、複数の入力要素の各要素の値を含む。各訓練データセットについて、各訓練データセットの目標出力ベクトルは、複数の出力要素の各要素の値を含む。この例では、コンピューティングシステムは、複数の訓練データセットを使用して、ニューラルネットワークを訓練してよい。さらに、この例では、コンピューティングシステムは、現在の患者に対応する現在の入力ベクトルを取得してよい。コンピューティングシステムは、DNNを現在の入力ベクトルに適用して、現在の出力ベクトルを生成してよい。コンピューティングシステムは次に、現在の出力ベクトルに基づいて、現在の患者の、肩分類とも呼ばれる肩の状態の分類を決定してよい。ある例では、分類は診断である。
この例では、1つまたは複数の肩の病変分類システムの異なるクラスに対応する複数の出力要素に異なる出力要素を有することによって、DNNは、患者の肩の状態の分類に使用できる意味のある出力情報を提供でき得る。例えば、これは、出力層のニューロンの異なる値が異なるクラスに対応するシステムより計算的に、また訓練時間という点で効率が良い。さらに、いくつかの例では、出力層のニューロンの出力値は、患者の分類された肩の状態が肩の病変分類システムの1つの対応するクラスに属することの信頼の尺度を示す。このような信頼値は、DNNを使用してコンピューティングシステムが決定したのと異なる肩の状態のクラスを患者が有する可能性をユーザが考慮するのを支援し得る。さらに、同じ出力層ニューロンの出力が、信頼レベルを表し、且つ患者の肩の状態の分類(例えば、診断)を決定するための根拠となることは、計算的に効率が良い場合がある。
図122は、本開示の技術による、患者の肩の状態の分類を決定するために使用可能なDNNを実施する例示のコンピューティングシステム12202を示すブロック図である。コンピューティングシステム12202は、整形外科手術システム100(図1)の一部であり得る。コンピューティングシステム12202は、DNNを使用して、図8のステップ802で病変を分類する一部として患者の肩の状態を分類してよい。いくつかの例では、コンピューティングシステム12202は、コンピューティングシステム12202の動作を行う1つまたは複数のプロセッサを含むXR可視化デバイス(例えば、MR可視化デバイスまたはVR可視化デバイス)を含む。
図122の例に示すように、システム10900は、コンピューティングシステム12202と、1つまたは複数のクライアントデバイスのセット(集合的に、「クライアントデバイス12204」)とを含む。他の例では、システム12200は、より多い、より少ない、または異なるデバイス及びシステムを含んでよい。いくつかの例では、コンピューティングシステム12202及びクライアントデバイス12204は、インターネット等、1つまたは複数の通信ネットワークを介して通信してよい。
コンピューティングシステム12202は、1つまたは複数のコンピューティングデバイスを含んでよい。コンピューティングシステム12202及びクライアントデバイス12204は、サーバコンピュータ、パーソナルコンピュータ、スマートフォン、ラップトップコンピュータ、及び他のタイプのコンピューティングデバイス等、様々なタイプのコンピューティングデバイスを含んでよい。図122の例では、コンピューティングシステム12202は、1つまたは複数の処理回路12206と、データストレージシステム12208と、1つまたは複数の通信インタフェースのセット12210A~12210N(集合的に、「通信インタフェース12210」)とを含む。データストア12208は、データを記憶するように構成される。通信インタフェース12210は、コンピューティングシステム12202がクライアントデバイス12204等の他のコンピューティングシステム及びデバイスに(例えば、無線で、または有線で)通信するのを可能にし得る。説明を簡単にするために、本開示は、処理回路12206、データストア12208、及び通信インタフェース12210によって行われる動作を、まとめてコンピューティングシステム10902によって行われるとして記載してよい。整形外科手術システム100(図1)の1つまたは複数のサブシステムは、コンピューティングシステム12202及びクライアントデバイス12204を含んでよい。例えば、仮想計画システム102は、コンピューティングシステム12202及びクライアントデバイス12204を含んでよい。
ユーザは、クライアントデバイス12204を使用して、コンピューティングシステム12202によって生成された情報にアクセスしてよい。例えば、コンピューティングシステム12202は、現在の患者の肩の状態の分類を決定してよい。分類は、肩の病変分類システムの複数の肩のクラスの中のある肩のクラスによって表されてよい。この例では、ユーザは、クライアントデバイス12204を使用して、分類に関する情報にアクセスしてよい。コンピューティングシステム12202は、クライアントデバイス12204からリモートにあってよいので、クライアントデバイス12204のユーザは、コンピューティングシステム12202をクラウドベースのコンピューティングシステム内にあると考えてよい。他の例では、コンピューティングシステム12202の一部または全ての機能が、クライアントデバイス12204の1つまたは複数によって行われてよい。
コンピューティングシステム12202は、DNN等のニューラルネットワーク(NN)を実施してよい。ストレージシステム12208は、1つまたは複数のコンピュータ可読データ記憶媒体を含んでよい。ストレージシステム12208は、NNのパラメータを記憶してよい。例えば、ストレージシステム12208は、NNのニューロンの重み、NNのニューロンのバイアス値等を記憶してよい。
コンピューティングシステム12202は、NNの出力に基づいて、患者の肩の状態の分類を決定してよい。本開示の技術によると、NNの出力要素は、1つまたは複数の肩の病変分類システムの異なるクラスに対応する出力要素を含む。肩の病変分類システムは、一次性変形性肩関節症分類システム、腱板分類システム、及び他の肩の病変の分類システムを含んでよい。例えば、Walch分類システム及びFavard分類システムは、2つの異なる一次性変形性肩関節症分類システムである。Warner分類システム及びGoutalier分類システムは、2つの異なる腱板分類システムである。いくつかの例では、肩の病変分類システムは、一次性関節窩上腕骨変形性関節症(PGHOA)、腱板断裂関節症(RCTA)の不安定性、重度腱板断裂(MRCT)、リウマチ性関節炎、外傷後関節炎、及び変形性関節症の1つまたは複数等、肩の病変のより一般的なカテゴリのクラスを含んでよい。
例えば、Walch分類システムは、1A、1B、2A、2B及び3の5つのクラスを指定する。別の例として、Favard分類システムは、E0、E1、E2、E3及びE4の5つのクラスを指定する。さらなる例として、Warner分類システムは、腱板萎縮の4つのクラスとして、無し、軽度、中等度及び重度を指定する。さらなる例として、Goutalier分類システムは、5つのクラスとして、0(完全に正常な筋肉)、I(いくらかの脂肪線条)、II(筋肉量が脂肪浸潤より多い)、III(筋肉量が脂肪浸潤と等しい)、IV(脂肪浸潤量が筋肉より多い)を指定する。
いくつかの例では、コンピューティングシステム12202は、NNが生成した出力要素の値の比較に基づいて、患者の肩の状態の分類を決定してよい。例えば、出力要素の値は、患者の肩の状態が、値を生成した出力層ニューロンに対応するクラスに属する信頼レベルを示す信頼値に対応してよい。例えば、出力要素の値は、信頼値であってよい、または、コンピューティングシステム12202が、出力要素の値に基づいて、信頼値を計算してよい。
いくつかの例では、出力層ニューロンの出力関数が、信頼値を生成する。さらに、コンピューティングシステム12202は、信頼値のどれが最も高いかを識別してよい。この例では、コンピューティングシステム12202は、最も高い信頼値に対応する肩の病変クラスが現在の患者の肩の状態の分類であると決定してよい。いくつかの例では、信頼値のいずれも閾値を超えない場合、コンピューティングシステム12202は、コンピューティングシステム12202が信頼できる分類を行うことができないことを示す出力を生成してよい。
上記のように、いくつかの例では、NNの出力要素は、信頼値を含む。1つのこのような例では、信頼値関数が信頼値を出力する。信頼値関数は、NNの出力層ニューロンの出力関数であってよい。この例では、信頼値関数が出力する全ての可能な信頼値は、所定の範囲内にある。さらに、この例では、コンピューティングシステム12202は、NNを入力ベクトルに適用して、出力ベクトルを生成してよい。NNを適用する一部として、コンピューティングシステム12202は、複数の出力層ニューロン各出力層ニューロンについて、各出力層ニューロンの出力値を計算してよい。
コンピューティングシステム12202は次に、各出力層ニューロンの出力値の信頼値関数を信頼値関数への入力として適用してよい。信頼値関数は、各出力層ニューロンの信頼値を出力する。この例では、複数の出力層ニューロンの各出力層ニューロンについて、各出力層ニューロンに対応する出力要素が、各出力層ニューロンの信頼値を指定する。さらに、複数の出力層ニューロンの各出力層ニューロンについて、各出力層ニューロンの信頼値は、現在の患者の肩の状態が各出力層ニューロンに対応する出力要素に対応する1つまたは複数の肩の病変分類システムのクラスに属することの信頼の尺度である。
コンピューティングシステム12202は、様々な信頼値関数を使用してよい。例えば、コンピューティングシステム12202は、双曲正接関数、シグモイド関数、または所定の範囲内にある値を出力する他のタイプの関数を適用してよい。双曲正接関数(tanh)は、γ(c)=tanh(c)=(e-e-c)/(e+e-c)の形式を有する。双曲正接関数は、出力層ニューロンの出力値等、実数値の独立変数を取り、それらを範囲(-1,1)に変換する。シグモイド関数は、γ(c)=1/(1+e-c)の形式を有する。シグモイド関数は、出力層ニューロンの出力値等、実数値の独立変数を取り、それらを範囲(0,1)に変換する。
コンピューティングシステム12202は、複数の訓練データセットを使用して、NNを訓練してよい。各訓練データセットは、複数の以前に分類された訓練データ患者の異なる訓練データ患者に対応してよい。例えば、第1の訓練データセットは、第1の訓練データ患者に対応してよく、第2の訓練データセットは、第2の訓練データ患者に対応してよい等である。訓練データセットは、訓練データセットが患者に関する情報を含み得るという意味で、訓練データ患者に対応してよい。訓練データ患者は、肩の状態を分類した現実の患者であってよい。いくつかの例では、訓練データ患者は、シミュレーションされた患者を含んでよい。
各訓練データセットは、各訓練入力ベクトル及び各目標出力ベクトルを含んでよい。各訓練データセットについて、各訓練データセットの訓練入力ベクトルは、複数の入力要素の各入力要素の値を含む。言い換えると、訓練入力ベクトルは、NNの各入力層ニューロンの値を含んでよい。各訓練データセットについて、各訓練データセットの目標出力ベクトルは、複数の出力要素の各要素の値を含んでよい。言い換えると、目標出力ベクトルは、NNの各出力層ニューロンの値を含んでよい。
いくつかの例では、目標出力ベクトルの値は、信頼値に基づく。このような信頼値は次に、整形外科医等の1人または複数の訓練されたヘルスケア専門家によって表された信頼レベルに基づいてよい。例えば、訓練されたヘルスケア専門家は、訓練データセットの訓練入力ベクトルの情報(または、訓練データセットの訓練入力ベクトルを導出する情報)を与えられてよく、訓練データ患者が肩の病変分類システムのそれぞれの各クラスに属する肩の状態を有することの信頼レベルを提供するように求められてよい。
例えば、肩の病変分類システムがWalch分類システムを含む例では、ヘルスケア専門家は、訓練データ患者の肩の状態がクラスA1に属することを信頼レベルが0であることを示してよい(訓練データ患者の肩の状態がクラスA1に属することをヘルスケア専門家は全く信じていないことを意味する)、訓練データ患者の肩の状態がクラスA2に属することの信頼レベルが0であることを示してよい、訓練データ患者の肩の状態がクラスB1に属することの信頼レベルが0.75であることを示してよい(訓練データ患者の肩の状態がクラスB1に属することをヘルスケア専門家はかなり自信があることを意味する)、訓練データ患者の肩の状態がクラスB2に属することの信頼レベルが0.25であることを示してよい(訓練データ患者の肩の状態がクラスB2に属する可能性はより少ないとヘルスケア専門家は思っていることを意味する)、また、訓練データ患者の肩の状態がクラスCに属することの信頼レベルが0であることを示してよい。いくつかの例では、コンピューティングシステム12202は、ヘルスケア専門家が提供した信頼値に信頼値関数の逆数を適用して、目標出力ベクトルに含むべき値を生成してよい。いくつかの例では、ヘルスケア専門家が提供した信頼値は、目標出力ベクトルに含まれる値である。
異なるヘルスケア専門家は、同じ訓練データ患者が肩の病変分類システムのそれぞれの各クラスに属する肩の状態を有することに異なる信頼レベルを有してよい。よって、いくつかの例では、目標出力ベクトルの値の元となる信頼値は、平均値であってよい、または、複数のヘルスケア専門家が提供した信頼レベルから他の方法で決定されてよい。
いくつかのこのような例では、何人かのヘルスケア専門家の信頼レベルは、他のヘルスケア専門家の信頼レベルより信頼レベルの加重平均でより大きい重みを与えられてよい。例えば、傑出した整形外科医の信頼レベルが、他の整形外科医の信頼レベルより大きい重みを与えられてよい。別の例では、特定の地域または病院のヘルスケア専門家または訓練データ患者の信頼レベルが、他の地域または病院のヘルスケア専門家または訓練データ患者より大きい重みを与えられてよい。このような加重平均は、様々な基準及びプリファレンスに従ってNNを調整することを可能にし得るので、有利である。
例えば、ヘルスケア専門家は、信頼レベルが特定の方法で重み付けされるように訓練されたNNを使用する方を好む場合がある。訓練データセットが、ヘルスケア専門家自身の症例に基づいた訓練データセットを含むいくつかの例では、ヘルスケア専門家(例えば、整形外科医)は、ヘルスケア専門家自身の症例がヘルスケア専門家自身の症例を用いてより重くまたは独占的に重み付けされる訓練データセットを用いて訓練されたNNを使用する方を好み得る。このように、NNは、ヘルスケア専門家自身の実践スタイルに合わせて出力を生成してよい。さらに、上記のように、ヘルスケア専門家及び患者は、コンピューティングシステムの出力を信頼するのが困難な場合がある。従って、いくつかの例では、コンピューティングシステム12202は、ヘルスケア専門家自身及び/または特に信頼された整形外科医の決定を模倣するようにNNが訓練されたことを示す情報を提供してよい。
いくつかの例では、同じ訓練データ患者に対する異なるヘルスケア専門家の信頼レベルが、異なる訓練データセットの生成で使用されてよい。例えば、特定の訓練データ患者に関する第1のヘルスケア専門家の信頼レベルを使用して、第1の訓練データセットを生成してよく、同じ訓練データ患者に関する第2のヘルスケア専門家の信頼レベルを使用して、第2の訓練データセットを生成してよい。
さらに、いくつかの例では、コンピューティングシステム12202は、1人または複数のユーザに出力するために信頼値を提供してよい。例えば、コンピューティングシステム12202は、1人または複数のユーザに表示するために信頼値をクライアントデバイス12204に提供してよい。このように、1人または複数のユーザは、患者の肩の状態の分類にコンピューティングシステム12202がどのようにして辿りついたかをより良く理解でき得る。
いくつかの例では、訓練データセットの母集団を広げるために、コンピューティングシステム12202は、電子カルテから信頼値を自動的に生成してよい。例えば、一例では、患者の電子カルテは、コンピューティングシステム12202が入力ベクトルを形成し得る元になるデータを含んでよく、患者の肩の状態の外科医による分類を示すデータを含んでよい。この例では、コンピューティングシステム12202は、分類からデフォルトの信頼レベルを推測してよい。デフォルトの信頼レベルは、様々な値(例えば、0.75、0.8等)を有してよい。このようなデフォルトの信頼レベルは、外科医による実際の信頼レベルを反映していない場合があるが、信頼レベルに帰属させることは、利用可能な訓練データセットの数の増加を助けることができ、これは、NNの精度を高め得る。
いくつかの例では、訓練データセットは、訓練データ患者の健康結果に基づいて重み付けされる。例えば、訓練データセットは、訓練データセットに関連付けられた訓練データ患者が全て肯定的な健康結果を有する場合、より大きい重みを与えられてよい。しかしながら、訓練データセットは、関連付けられた訓練データ患者があまり肯定的でない健康結果を有する場合、より低い重みを与えられてよい。訓練中、コンピューティングシステム12202は、訓練データセットに与えられた重みに基づいて、訓練データセットに重み付けする損失関数を使用してよい。
いくつかの例では、訓練データセットを生成する一部として、コンピューティングシステム12202は、1つまたは複数の訓練データセット選択基準に基づいて、訓練データセットのデータベースから複数の訓練データセットを選択してよい。言い換えると、コンピューティングシステム12202は、一定の訓練データセットを、その訓練データセットが訓練データセット選択基準を満たさない場合、NNの訓練プロセスから除外してよい。図122の例では、データストレージシステム12208は、過去の肩の手術症例からの訓練データセットを含むデータベース12212を記憶する。
多種多様な訓練データセット選択基準があってよい。例えば、一例では、1つまたは複数の訓練データセット選択基準は、複数の訓練データ患者に対して手術を行った外科医を含んでよい。いくつかの例では、1つまたは複数の訓練データセット選択基準は、訓練データ患者が住んでいる地域を含む。いくつかの例では、1つまたは複数の訓練データセット選択基準は、1人または複数の外科医に関連する地域(例えば、1人または複数の外科医が医療を行っている、住んでいる、免許を与えられた、訓練された等の地域)を含む。
いくつかの例では、1つまたは複数の訓練データセット選択基準は、訓練データ患者の術後健康結果を含む。このような例では、訓練データ患者の術後健康結果は、術後可動域、術後感染の存在、または術後の痛みの1つまたは複数を含んでよい。従って、このような例では、NNを訓練する訓練データセットは、有害な健康結果が生じた訓練データセットを除外してよい。
追加の訓練データセットが、データベースに時を経て追加されてよく、コンピューティングシステム12202は、追加の訓練データセットを使用してNNを訓練してよい。従って、NNは、より多くの訓練データセットがデータベースに追加されると、経時的に向上し続け得る。
コンピューティングシステム12202は、様々な技術の1つを適用して、訓練データセットを使用し、NNを訓練してよい。例えば、コンピューティングシステム12202は、当分野で既知の様々な標準的逆伝搬アルゴリズムの1つを使用してよい。例えば、NNを訓練する一部として、コンピューティングシステム12202は、費用関数を適用して、NNが生成した出力ベクトルと目標出力ベクトルの間の差に基づいて、費用値を決定してよい。コンピューティングシステム12202は次に、逆伝搬アルゴリズムで費用値を使用して、NNのニューロンの重みを更新してよい。
図123は、図122のシステムで、コンピューティングシステム12202によって実施され得る例示のNN12300を示す。図123の例では、NN12300は、入力層12302、出力層12304、及び入力層12302と出力層12304の間に1つまたは複数の隠れ層12306を含む。図123の例では、ニューロンは、丸で表される。図123の例では、各層は、6つのニューロンを含むとして示されるが、NN12300の層は、より多いまたはより少ないニューロンを含んでよい。さらに、NN12300は、完全に接続されたネットワークとして図123に示されるが、NN12300は、異なるアーキテクチャを有してよい。例えば、NN12300は、完全に接続されたネットワークでなくてもよい、1つまたは複数の畳み込み層を有してよい、または図123に示すアーキテクチャとは異なるアーキテクチャを有してよい。
一部の実施態様では、NN12300は、1つまたは複数の人工ニューラルネットワーク(単に、ニューラルネットワークとも呼ばれる)であってよい、または、1つまたは複数の人工ニューラルネットワークを含むことができる。ニューラルネットワークは、ニューロンまたはパーセプトロンとも呼ばれ得る接続されたノードのグループを含むことができる。ニューラルネットワークは、1つまたは複数の層に編成することができる。複数の層を含むニューラルネットワークは、「ディープ」ネットワークと呼ぶことができる。ディープネットワークは、入力層、出力層、及び入力層と出力層の間に位置する1つまたは複数の隠れ層を含み得る。ニューラルネットワークのノードは、接続することができる、または、完全には接続されなくてよい。
NN12300は、1つまたは複数のフィードフォワードニューラルネットワークであってよい、または1つまたは複数のフィードフォワードニューラルネットワークを含むことができる。フィードフォワードネットワークでは、ノード間の接続は、サイクルを形成しない。例えば、各接続によって、前の層のノードを後の層のノードに接続することができる。
ある例では、NN12300は、1つまたは複数の回帰ニューラルネットワークであってよい、または1つまたは複数の回帰ニューラルネットワークを含むことができる。いくつかの場合には、回帰ニューラルネットワークのノードの少なくともいくつかは、サイクルを形成することができる。回帰ニューラルネットワークは、本来、順次である入力データを処理するのに特に有用であり得る。詳細には、いくつかの場合には、回帰ニューラルネットワークは、回帰または直接的な循環ノード接続を使用して、入力データシーケンスの前の部分からの情報を入力データシーケンスの次の部分に伝えることができる、または保持できる。
いくつかの例では、順次入力データは、時系列データ(例えば、時間に対するセンサデータ、または異なる時点にキャプチャされた画像)を含むことができる。例えば、回帰ニューラルネットワークは、時間に対するセンサデータを分析して、スワイプ方向を検出または予測、手書き文字認識等を行う等ができる。順次入力データは、(例えば、自然言語処理、音声検出または処理等のための)文の中の単語、楽曲の音符、(例えば、アプリケーションの順次使用を検出または予測するための)ユーザが行った連続した動作、物体の順次の状態等を含んでよい。例示の回帰ニューラルネットワークは、長・短期記憶(LSTM)回帰ニューラルネットワーク、ゲート付き回帰型ユニット、双方向回帰ニューラルネットワーク、連続時間回帰ニューラルネットワーク、ニューラルヒストリコンプレッサ(neural history compressors)、エコーステートネットワーク、エルマンネットワーク、ジョーダンネットワーク、再帰ニューラルネットワーク、ホップフィールドネットワーク、完全回帰型(fully recurrent)ネットワーク、シーケンス・ツー・シーケンス構成等を含む。
一部の実施態様では、NN12300は、1つまたは複数の畳み込みニューラルネットワークであってよい、または1つまたは複数の畳み込みニューラルネットワークを含むことができる。いくつかの場合には、畳み込みニューラルネットワークは、学習されたフィルタを使用して入力データに畳み込みを行う1つまたは複数の畳み込み層を含むことができる。フィルタは、カーネルとも呼ぶことができる。畳み込みニューラルネットワークは、入力データが静止画像またはビデオ等の画像を含む時等、視覚的問題にとって特に有用であり得る。しかしながら、畳み込みニューラルネットワークは、自然言語処理にも適用できる。
NN12300は、例えば、ディープボルツマンマシン、ディープビリーフネットワーク、積層自己符号化器等、1つまたは複数の他の形態の人工ニューラルネットワークであってよい、または、1つまたは複数の他の形態の人工ニューラルネットワークを含んでよい。本明細書に記載のニューラルネットワークの任意のネットワークが、組み合わされて(例えば、積層されて)より複雑なネットワークを形成することができる。
図123の例では、入力ベクトル12308は、複数の入力要素を含む。各入力要素は、数値であってよい。入力層12302は、複数の入力層ニューロンを含む。入力層12302に含まれる複数の入力層ニューロンの各入力層ニューロンは、複数の入力要素の異なる入力要素に対応してよい。言い換えると、入力層12302は、入力ベクトル12308の各入力要素に対して異なるニューロンを含んでよい。
さらに、図123の例では、出力ベクトル12310は、複数の出力要素を含む。各出力要素は、数値であってよい。出力層12304は、複数の出力層ニューロンを含む。複数の出力層ニューロンの各出力層ニューロンは、複数の出力要素の異なる出力要素に対応する。言い換えると、出力層12304の各出力層ニューロンは、出力ベクトル12310の異なる出力要素に対応する。
入力ベクトル12308は、多種多様なな情報を含んでよい。例えば、入力ベクトル12308は、患者の形態学的測定値を含んでよい。入力ベクトル12308が患者の形態の測定値を含むいくつかの例では、入力ベクトル12308は、CT画像、MRI画像、または他のタイプの画像等、患者の医療画像に基づいて、測定値を決定してよい。例えば、コンピューティングシステム12202は、現在の患者の医療画像を取得してよい。例えば、コンピューティングシステム12202は、撮像装置(例えば、CT装置、MRI装置、または他のタイプの撮像装置)、患者の電子カルテ、または他のデータソースから医療画像を取得してよい。この例では、コンピューティングシステム12202は、医療画像をセグメント化して、軟組織及び骨等、現在の患者の内部構造を識別してよい。例えば、一例では、コンピューティングシステム12202は、骨または軟組織に対応する医療画像の部分を識別するように訓練された人工ニューラルネットワークを適用してよい。さらに、この例では、コンピューティングシステム12202は、現在の患者の識別された内部構造の相対位置に基づいて、複数の測定値を決定してよい。この例では、複数の入力要素は、複数の測定値の各測定値の入力要素を含んでよい。
本開示の他の箇所に記載するように、コンピューティングシステム12202は、1つまたは複数のコンピューティングデバイスを含んでよい。よって、コンピューティングシステム12202の様々な機能が、コンピューティングシステム12202のコンピューティングデバイスの様々な組み合わせによって行われてよい。例えば、いくつかの例では、コンピューティングシステム12202の第1のコンピューティングデバイスが、画像をセグメント化してよく、コンピューティングシステム12202の第2のコンピューティングデバイスが、DNNを訓練してよく、コンピューティングシステム12202の第3のコンピューティングデバイスが、DNNを適用してよい等である。他の例では、コンピューティングシステム12202の1つのコンピューティングデバイスが、画像のセグメント化、DNNの訓練、及びDNNの適用を行ってよい。
上記のように、コンピューティングシステム12202は、患者の形態学的特性の複数の測定値を決定してよい。このような測定値は、距離測定値、角度測定値、及び患者の構造の及び/または患者の構造間の測定可能な関係の他のタイプの数値的特性を含んでよい。例えば、測定値は、下記の1つまたは複数の任意の組み合わせを含んでよい。
・関節窩バージョン:肩甲骨の左右軸に対する関節窩関節面の軸の角度方向
・関節窩の傾き:肩甲骨に対する関節窩の上部/下部の傾き
・関節窩の向き/方向:3次元空間の関節窩の3次元の向き
・関節窩の最良適合の球の半径:患者の関節窩への最良適合の球の半径。最良適合の球は、球のある部分が患者の関節窩に可能な限り同一平面で収まるようなサイズの概念的な球である。
・関節窩の最良適合の球の二乗平均平方根誤差:患者の関節窩と最良適合の球の一部分との差の平均平方誤差
・逆肩角度:関節窩の下部の傾き
・臨界肩角度:関節窩面と肩峰の最も下外側の点につながる線との間の角度
・肩峰上腕骨空間:肩峰と上腕骨最上部の間の空間
・関節窩上腕骨空間:関節窩と上腕骨の間の空間
・上腕骨バージョン:上腕骨の向きと上顆軸の間の角度
・上腕骨頸軸角度:上腕骨解剖頸法線ベクトルと髄内軸の間の角度
・上腕骨頭の最良適合球半径と二乗平均平方根誤差:患者の上腕骨頭の最良適合球の半径。最良適合球は、球のある部分が上腕骨頭表面にできる限り一致するようなサイズの概念的な球である。二乗平均平方根誤差は、最良適合球と患者の実際の上腕骨頭の間の誤差を示す。
・上腕骨亜脱臼:関節窩に対する上腕骨の亜脱臼の測定値
・上腕骨の向き/方向:3次元空間での上腕骨頭の向き
・患者の上腕骨の骨端の測定値
・患者の上腕骨の骨幹端の測定値
・患者の上腕骨の骨幹の測定値
・骨後捻
いくつかの例では、入力ベクトル12308は、患者の腱板評価に基づいた情報を(例えば、本明細書に記載の他の例示のタイプの入力データと組み合わせて、または組み合わせずに)含んでよい。例えば、入力ベクトル12308は、腱板の脂肪浸潤、腱板の萎縮、及び/または患者の腱板の他の情報に関して、単独の情報、または上記の形態学的な入力と組み合わせた情報を含んでよい。いくつかの例では、ニューラルネットワークへの入力として使用される軟組織の脂肪浸潤の尺度及び萎縮の尺度は、例えば、本出願で記載する軟組織モデリング技術のいずれかによって導出されてよい。いくつかの例では、患者の腱板に関する情報は、Warner分類システムまたはGoutalier分類システム等、肩の病変分類システムのクラスで表されてよい。
いくつかの例では、入力ベクトル12308は、(例えば、本明細書に記載の他の例示のタイプの入力データと組み合わせて、または組み合わせずに)患者の可動域情報を含んでよい。いくつかの例では、患者の可動域情報は、本開示の他の箇所に記載するように、動作追跡デバイスを使用して生成されてよい。
さらに、いくつかの例では、入力ベクトル12308は、(例えば、本明細書に記載の他の例示のタイプの入力データと組み合わせて、または組み合わせずに)1つまたは複数の肩の病変分類システムのクラスを指定する情報を含んでよい。このような例では、出力ベクトルは、1つまたは複数の異なる肩の病変分類システムのクラスに対応する出力要素を含んでよい。例えば、入力ベクトル12308は、腱板分類システムのクラスを指定する情報を含んでよく、出力ベクトル12310は、変形性肩関節症分類システムのクラスに対応する出力要素を含んでよい。
いくつかの例では、入力ベクトル12308は、(例えば、形態学的な入力及び/または腱板の入力を含む、本明細書に記載の他の例示のタイプの入力データと組み合わせて、または組み合わせずに)上腕骨及び/または関節窩の骨密度スコアを指定する情報を含んでよい。入力ベクトル12308に含まれる他の情報は、患者の年齢、患者の活動、患者の性別、患者の肥満度指数(BMI)等、デモグラフィック情報を含んでよい。いくつかの例では、入力ベクトル12308は、症状の発現の速さに関する情報(例えば、徐々に、または、突然)を含んでよい。入力ベクトル12308の複数の入力要素は、特定の運動/スポーツタイプ等の活動への参加の患者の目的、可動域等も含んでよい。
図124は、本開示の技術による、DNNを使用して肩の状態の分類を決定する際のコンピューティングシステム12202の例示の動作を示すフローチャートである。図124の例では、コンピューティングシステム12202は、過去の肩の手術症例から複数の訓練データセットを生成する(12400)。いくつかの例では、複数の訓練データセットを生成することは、肩の症例の履歴データベースから選択した訓練データセットを読み出すことを含む。図124の例では、NN12300(図123)等のNNは、入力層、出力層、及び入力層と出力層の間の1つまたは複数の隠れ層を有する。入力層は、複数の入力層ニューロンを含む。複数の入力層ニューロンの各入力層ニューロンは、複数の入力要素の異なる入力要素に対応する。出力層は、複数の出力層ニューロンを含む。複数の出力層ニューロンの各出力層ニューロンは、複数の出力要素の異なる出力要素に対応する。複数の出力要素の各出力要素は、1つまたは複数の肩の病変分類システムの異なるクラスに対応する。
各訓練データセットは、過去の肩の手術症例の複数の訓練データ患者の異なる訓練データ患者に対応し、各訓練入力ベクトル及び各目標出力ベクトルを含む。各訓練について、各訓練データセットの訓練入力ベクトルは、複数の入力要素の各入力要素の値を含む。各訓練データセットについて、各訓練データセットの目標出力ベクトルは、複数の出力要素の各要素の値を含む。
さらに、図124の例では、コンピューティングシステム12202は、複数の訓練データセットを使用してNNを訓練する(12402)。さらに、コンピューティングシステム12202は、上記のように、例えば、様々な患者の入力の組み合わせを含む、現在の患者に対応する現在の入力ベクトルを取得してよい(12404)。コンピューティングシステム12202は、NNを現在の入力ベクトルに適用して、現在の出力ベクトルを生成してよい(12406)。例えば、コンピューティングシステム12202は、現在の入力ベクトルをNNの入力層に提供してよく、NNを通してフォワード伝搬を行って、現在の出力ベクトルを生成してよい。
さらに、コンピューティングシステム12202は、現在の出力ベクトルに基づいて、現在の患者の肩の状態の分類を決定してよい(12408)。いくつかの例では、現在の患者の肩の状態の分類は診断であってよい。上記のように、肩の状態は、選択された肩分類システムからの分類によって表されてよい。さらに、肩の状態は、信頼尺度、値、または他の表示を伴ってよい。コンピューティングシステム12202は、本開示の他の箇所に記載の例または例の組み合わせのいずれかに従って、これらの動作を行ってよい。
ヘルスケア専門家は、様々な方法で、肩の状態の分類を使用してよい。例えば、外科医は、分類を使用して患者に対して行う手術のタイプを選択してよい。いくつかの例では、外科医は、分類を使用して、患者に対して手術を行うために使用する手術アイテム(例えば、インプラント、ツール等)を選択してよい。いくつかの例では、理学療法士または他のヘルスケア専門家は、分類を使用して、患者のリハビリテーション計画を決定してよい。
ある例では、開示は、ニューラルネットワーク等の人工知能技術を使用した、手術タイプ選択を含む整形外科手術計画に関する。先行研究では、NNが肩の病変に関する意味のある出力を提供できるようにNNを構築及び訓練する方法に関する質問を解決しておらず、先行研究では、NNが患者に対してどのタイプの肩の手術を行うかに関する意味のある出力を提供できるようにNNを構築及び訓練する方法に関する質問を解決していない。肩の手術の例示のタイプは、標準的全肩関節形成と、逆肩関節形成を含み得る。整形外科手術を計画することにNNを適用することに関連する課題の別の例では、患者及びヘルスケア専門家が、コンピュータが行った決定を、特に、コンピュータがどのようにその決定を行ったかが明らかでない場合、信用したがらないということが理解できる。よって、患者及びヘルスケア専門家がNNの出力を安心して信頼できることを確実にすることを支援するような出力の生成の仕方に関する課題がある。
本開示は、これらの問題を解決し、患者に対して推奨されるタイプの肩の手術に関して意味のある出力を行うNN構造を提供し得る技術を記載する。本開示の技術によると、NN(例えば、DNN)は、入力層、出力層、及び入力層と出力層の間の1つまたは複数の隠れ層を有してよい。入力層は、複数の入力層ニューロンを含む。複数の入力層ニューロンの各入力層ニューロンは、複数の入力要素の異なる入力要素に対応する。出力層は、複数の出力層ニューロンを含む。複数の出力層ニューロンの各出力層ニューロンは、複数の出力要素の異なる出力要素に対応する。複数の出力要素は、複数の手術タイプの出力要素を含む。
本開示の技術によると、複数の手術タイプの出力要素の各手術タイプは、複数のタイプの肩の手術の異なるタイプの肩の手術に対応する。さらに、この技術によると、コンピューティングシステムは、複数の訓練データセットを生成してよい。各訓練データセットは、複数の訓練データ患者の異なる訓練データ患者に対応し、各訓練入力ベクトル及び各目標出力ベクトルを含む。各訓練データセットについて、各訓練データセットの訓練入力ベクトルは、複数の入力要素の各要素の値を含む。各訓練データセットについて、各訓練データセットの目標出力ベクトルは、複数の出力要素の各要素の値を含む。コンピューティングシステムは、複数の訓練データセットを使用してNNを訓練してよい。
さらに、コンピューティングシステムは、現在の患者に対応する現在の入力ベクトルを取得してよい。コンピューティングシステムは、NNを現在の入力ベクトルに適用して、現在の出力ベクトルを生成してよい。さらに、コンピューティングシステムは、現在の出力ベクトルに基づいて、現在の患者に対して推奨されるタイプの肩の手術を決定してよい。コンピューティングシステムは、図8のステップ804の患者の手術計画を選択する一部として、NNを使用して、現在の患者に推奨されるタイプの肩の手術を決定してよい。
この例では、異なる肩のタイプの肩の手術に対応する複数の出力要素の異なる出力要素を有することによって、NNは、患者の肩の状態の治療に使用する肩の手術手順のタイプの選択に使用できる意味のある出力情報を提供できてよい。さらに、いくつかの例では、出力層のニューロンの出力値は、患者が特定のタイプの肩の手術を受けるべきであることの信頼の尺度を示す。このような信頼値は、患者が代わりに異なるタイプの肩の手術を受けるべき可能性をユーザが考慮する助けになり得る。さらに、同じ出力層ニューロンの出力が、信頼レベルを表し、且つ、患者に特定のタイプの肩の手術を推奨する根拠として使用されると、計算的に効率が良い場合がある。
図125は、本開示の技術による、NNを使用して、肩の状態に対して推奨される手術を決定するためのコンピューティングシステム12500の例示の機能コンポーネントを示すブロック図である。コンピューティングシステム12500は、コンピューティングシステム12202(図122)と同じ方法で実施されてよく、整形外科手術システム100(図1)の一部を形成してよい。いくつかの例では、同じコンピューティングシステムが、コンピューティングシステム12202とコンピューティングシステム12500の両方の役割を行う。いくつかの例では、コンピューティングシステム12500は、コンピューティングシステム12500の動作を行う1つまたは複数のプロセッサを含むXR可視化デバイス(例えば、MR可視化デバイスまたはVR可視化デバイス)を含む。
図125の例では、コンピューティングシステム12500は、NN12502及びストレージシステム12504を含む。ストレージシステム12504は、データベース12506を記憶してよい。NN12502は、図123のNN12300と類似した方法で実施されてよい。すなわち、NN12502は、入力層、出力層、及び入力層と出力層の間の1つまたは複数の隠れ層を含んでよい。さらに、NN12502の入力層の複数の入力層ニューロンの各入力層ニューロンは、入力ベクトルの複数の入力要素の異なる入力要素に対応してよい。NN12502の出力層の複数の出力層ニューロンの各出力層ニューロンは、出力ベクトルの複数の出力要素の異なる出力要素に対応してよい。しかしながら、NN12502は、異なる数の隠れ層、異なる数の入力層ニューロン、異なる数の出力層ニューロン等、異なるパラメータを有してよい。
ストレージシステム12504は、1つまたは複数のコンピュータ可読データ記憶媒体を含んでよい。ストレージシステム12504は、NN12502のパラメータを記憶してよい。例えば、ストレージシステム12504は、NN12502のニューロンの重み、NN12502のニューロンのバイアス値等を記憶してよい。データベース12212と同様、データベース12506は、過去の肩の手術症例からの訓練データセットを含んでよい。
コンピューティングシステム12500は、NN12502を入力ベクトルに適用して、出力ベクトルを生成してよい。例えば、NN12502の出力層は、複数の出力層ニューロンを含んでよい(及び、いくつかの例では、それに限定されてよい)。各出力層ニューロンは、複数の手術タイプ出力要素の異なる出力要素に対応してよい。出力ベクトルは、複数の手術タイプ出力要素を含んでよい。各タイプの出力要素は、異なるタイプの肩の手術に対応してよい。出力として提示され得る肩の手術のタイプの例示のタイプは、ステムレスの標準的全肩関節形成、ステム付きの標準的全肩関節形成、ステムレスの逆肩関節形成、ステム付きの逆肩関節形成、オーグメント関節窩を使用する(augmented glenoid)標準的全肩関節形成、補強関節窩使用逆肩関節形成、及び他のタイプの整形外科の肩の手術を含んでよい。肩の手術は、手術後、患者の肩関節が、肩関節の肩甲骨側が凹面を有し、肩関節の上腕骨側が凸面を有する標準的な解剖学的構成を有するという意味で「標準的」であってよい。他方、「逆の」肩の手術は、凸面が肩甲骨に取り付けられ、凹面が上腕骨に取り付けられるという逆の構成となる。いくつかの例では、肩の手術のタイプは、患者の肩に対する複数の再置換術を含む。患者の肩に対する再置換術の例は、以下を含む。
さらに、コンピューティングシステム12500は、現在の出力ベクトルに基づいて、患者に推奨されるタイプの肩の手術を決定してよい。例えば、コンピューティングシステム12500は、出力ベクトルのどの出力要素が最大の信頼値を有する肩の手術のタイプに対応するかを決定してよい。
NN12502の入力ベクトルは、コンピューティングシステム12202及びNN12300に関して前述された入力要素のいくつか、組み合わせ、または全てを含んでよい。例えば、入力要素は、(軟組織モデリング及び骨モデリングを含む)患者の形態学的特性の測定値、患者に関するデモグラフィック情報、患者に関する可動域情報等の1つまたは複数を含んでよい。さらに、NN12502の訓練に使用される訓練データセットは、患者の肩の状態を分類するNNに関して上記の例に従って選択及び生成されてよい。例えば、訓練データセットは、1つまたは複数の訓練データセット選択基準に基づいて選択されてよい。本開示の他の箇所に記載するように、このような訓練データセット選択基準は、複数の訓練データ患者に手術を行った外科医、訓練データ患者が住んでいる地域、1人または複数の外科医に関連付けられた地域、訓練データ患者の術後健康結果等を含んでよい。NN12502は、患者の肩の状態を分類するためにNNに関して前述した例と同じように訓練されてよい。例えば、訓練データセットNN12502の目標出力ベクトルは、特定のタイプの肩の手術が患者に対して行われるべきであることの信頼レベルを示す出力要素を含んでよい。
図126は、本開示の技術による、NNを使用して、患者に対して推奨されるタイプの肩の手術を決定するコンピューティングシステムの例示の動作を示すフローチャートである。図126の例では、コンピューティングシステム12500は、複数の訓練データセットを生成する(12600)。この例では、NNは、入力層、出力層、及び入力層と出力層の間の1つまたは複数の隠れ層を有する。入力層は、複数の入力層ニューロンを含む。複数の入力層ニューロンの各入力層ニューロンは、複数の入力要素の異なる入力要素に対応する。出力層は、複数の出力層ニューロンを含む。
複数の出力層ニューロンの各出力層ニューロンは、複数の出力要素の異なる出力要素に対応する。複数の出力要素は、複数の手術タイプの出力要素を含む。複数の手術タイプの出力要素の各手術タイプは、複数のタイプの肩の手術の異なるタイプの肩の手術に対応する。各訓練データセットは、複数の訓練データ患者の異なる訓練データ患者に対応し、各訓練入力ベクトル及び各目標出力ベクトルを含む。各訓練データセットについて、各訓練データセットの訓練入力ベクトルは、複数の入力要素の各要素の値を含む。各訓練データセットについて、各訓練データセットの目標出力ベクトルは、複数の出力要素の各要素の値を含む。
さらに、図126の例では、コンピューティングシステム12500は、複数の訓練データセットを使用してNNを訓練する(12602)。さらに、コンピューティングシステム12500は、現在の患者に対応する現在の入力ベクトルを取得してよい(12604)。コンピューティングシステム12500は、NNを現在の入力ベクトルに適用して、現在の出力ベクトルを生成してよい(12606)。コンピューティングシステム12500は、現在の出力ベクトルに基づいて、現在の患者に対して推奨されるタイプの肩の手術を決定してよい(12608)。コンピューティングシステム12500は、本開示の他の箇所に提供された例に従ってこれらの動作を行ってよい。
MRシステム212は、肩の外科的修復手術を計画及び実施するために使用するシステムの文脈で記載したが、MRシステム212の適用はこれに限らない。例えば、MRシステム212及び拡張手術モードは、他の関節の置換または他の骨の修復もしくは再建を容易にするために使用することができる。従って、上記特徴のいずれも、肘、足首、膝、股関節または足を含む手順を含むがこれらに限らない、任意の整形外科手術手順の支援に使用することができる。MRシステム212及びその機能は、足に関連するシャルコー手術等、外部の固定デバイスを使用して骨を固定または修復する手術手順で使用することができることも理解されたい。さらに、MRシステム212及びその機能は、骨構造のみに関与する適用に限定されない。例として、CT画像及びMRI画像等、ある特定のタイプの画像データは、皮膚を含む軟組織構造に関する情報を提供することができるので、MRシステム212を使用して、最適な切開箇所を可視化及び突き止めることができ、従って、侵襲性が最小の手術をさらに強化することができる。
MRシステム212及びその拡張手術機能は、外科医または他のケア提供者の使用に制限されない。例として、位置合わせ及び追跡を含む、MRシステム212によって生成される情報を、手術環境に存在し得るロボットアームを制御するために使用することができる。
MRシステム212は、手術結果を向上させる高度な手術システムの1つのコンポーネントであってよい。仮想計画と手術を行うための複合現実の使用とに加えて、インプラントは、手術後の情報を提供するための様々なセンサと、センサが集めるデータの収集を容易にする送受信機(例えば、RF送受信機)を含むことができる。このようなデータを使用して、(例えば、一例として、患者が使用するモバイルデバイスにインストールされたアプリケーションを介して等、患者に関節を動かすように促すことによって)例えば、患者の回復をモニタリングし、且つ、患者の回復を支援することができる。センサによって集められたデータはまた、データベースに入力することができ、データベースで、外科医または人工知能システムによって使用されて、今後の手術例の計画を支援することができる。
本開示の例の多くは、肩関節修復手術に関して記載したが、本開示の多くの技術は、他のタイプの整形外科手術に適用可能である。例えば、本開示の多くの技術は、足首の手術(例えば、全足関節形成)に適用可能であり得る。全足関節形成の例では、外科医は、遠位脛骨切断、近位踵骨切断、及び2つの他の内側/外側切断を行ってよい。それを行うために、外科医は、足関節に切断ガイドを配置することが必要となり得る。切断ガイドは、切断が脛骨の機能軸に垂直になるように配置される。次に、切断ガイドの配置は、3つの解剖学的平面(軸、矢状、及び冠状)に対する3つの角度を調整することによって精緻化される。外科医は、これらの切断を、切断ジグを使用して行うことができる、または、振動鋸を用いて直接、これらの切断を行うことができる。次に、外科医は、後方及び前方の距骨の面取り切断を行う。
切断及びドリルによる穴開けに関して前述した例の多くは、全足関節形成中に行われる切断手技及びドリル操作に適用可能である。例えば、術前フェーズ302(図3)及び術中フェーズ306(図3)中、整形外科手術システム100(図1)は、患者の足首の解剖学的構造の患者固有の仮想3Dモデルを含むXR可視化(例えば、MR可視化またはVR可視化)を提供してよい。これは、外科医が全足関節形成を計画及び実行するのを支援し得る。
さらに、全足関節形成の術中フェーズ306(図3)中、MRシステム212の可視化デバイス213は、外科医が正確な切断を行い、ドリルで穴を開け、且つ、人工コンポーネントを配置するのを支援する、仮想切断面、仮想ドリル軸、及び仮想進入点等、仮想ガイダンスを含むMR可視化を提示してよい。例えば、MR可視化は、遠位脛骨切断、近位踵骨切断等の切断面を含んでよい。足関節形成のための人口インプラントコンポーネントは、一例では、距骨ドーム、脛骨トレイ、及び関連するペグまたはアンカーコンポーネントを含んでよい。さらに、肩修復手術に関して本開示の他の箇所に記載される位置合わせプロセスと類似の位置合わせプロセスが、全足関節形成の文脈で使用されてよい。例えば、仮想3Dモデルを患者の現実の解剖学的構造と整列させるためにランドマークとして関節窩の中心を使用する代わりに、患者の足首上の別のランドマーク(例えば、脛骨の下部)を使用してよい。
図150は、足関節修復手術の例示の段階を示すフローチャートである。外科医は、図150の手術のプロセスのステップの一部または全ての間、可視化デバイス213等の可視化デバイスを着用してよい、または他の方法で使用してよい。他の例では、足首の手術は、より多い、より少ない、または異なるステップを含んでよい。例えば、足首の手術は、セメントを追加するステップ及び/または他のステップを含んでよい。いくつかの例では、可視化デバイス213は、手術ワークフローのステップを通して、仮想ガイダンスを提示して、外科医、看護師、または他のユーザをガイドしてよい。
図150の例では、外科医は、切開プロセスを行う(15002)。切開プロセス中、外科医は、一連の切開を行って患者の足関節を露出させる(例えば、患者の脛骨の少なくとも一部と患者の距骨の少なくとも一部とを露出させる)。いくつかの例では、MRシステム(例えば、MRシステム212、MRシステム1800A等)は、例えば、切開の方法及び/または場所を示す仮想ガイダンス画像を表示することによって、外科医が切開プロセスを行うのを支援してよい。上記のように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目は整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、切開プロセスを行う現在のステップを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
外科医は、可視化デバイス213によって外科医に提示される視野に、仮想脛骨物体を患者の実際の脛骨に位置合わせする位置合わせプロセス(15004)を行ってよい。例えば、MRシステム212は、図2のストレージシステム206から仮想脛骨物体を取得してよい。上記仮想関節窩物体と同様に、仮想脛骨物体は、患者の脛骨の術前撮像(例えば、CT撮像)に基づいて生成されてよい。MRシステム212は、任意の適切なプロセスを使用して位置合わせを行ってよい。例えば、MRシステム212は、図20A~図31を参照して前述した位置合わせ技術のいずれかを使用して、仮想脛骨物体の患者の実際の脛骨との位置合わせを行ってよい。上記のように、位置合わせは、仮想脛骨物体と患者の実際の脛骨の間の変換行列を作成してよい。上記のように、MRシステム212は、特定のステップ(複数可)を行う方法を説明するアニメーション、ビデオまたはテキストを表示してよい。例えば、MRシステム212は、位置合わせプロセスを行う方法を示す図またはアニメーションを可視化デバイス213に表示させてよい。上記のように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目は整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、仮想脛骨物体を患者の実際の脛骨に位置合わせする現在のステップを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
外科医は、脛骨を準備する様々な作業ステップを行ってよい(15006)。脛骨を準備する例示の作業ステップは、1つまたは複数のガイドピンを脛骨に取り付けること、脛骨にドリルで1つまたは複数の穴を開けること、及び/または1つまたは複数のガイドを脛骨に取り付けることを含むが、これらに限らない。MRシステム212は、脛骨を準備する様々な作業ステップで外科医を支援する仮想ガイダンスを提供してよい。上記のように、MRシステム212は、特定のステップ(複数可)を行う方法を説明するアニメーション、ビデオまたはテキストを表示してよい。例えば、MRシステム212は、脛骨を準備する方法を示す図またはアニメーションを可視化デバイス213に表示させてよい。これも前述したように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目が整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、脛骨を準備する現在のステップまたはステップのシーケンスを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
図151A及び図151Bは、ガイドピンの脛骨への例示の取付を示す概念図である。切開プロセスは、脛骨15102、腓骨15110、及び足首15100の距骨15108の少なくとも一部を露出させてよい。切開プロセスを行った後、外科医は、ガイドピン15104A、15104B、15106A及び15106Bを脛骨15102に取り付けてよい。
図151Bの例等、いくつかの例では、外科医は、物理的ガイドを使用してガイドピン15104A、15104B、15106A及び15106Bを取り付けてよい。例えば、外科医は、脛骨ガイド15112を脛骨15102に配置し、脛骨ガイド15112の1つまたは複数の穴を利用して、ガイドピン15104A、15104B、15106A及び15106Bの取付をガイドしてよい。いくつかの例では、脛骨ガイド15112は、脛骨15102の輪郭と一致するように設計された表面を有するように製造された患者固有のガイドであってよい。このような患者固有のガイドの一例は、Wright Medical Group N.V.社製のProphecy(登録商標)Infinity(登録商標)Total AnkleシステムのProphecy Tibial Alighment Guideである。
脛骨ガイド15112に加えて、または、その代わりに、MRシステム212は、ガイドピン15104A、15104B、15106A及び15106Bの取付で外科医を支援する仮想ガイダンスを提供してよい。例えば、可視化デバイス213は、外科医がガイドピンを取り付けるのをガイドする仮想マーカを表示してよい。可視化デバイス213は、(例えば、ガイドピンを取り付ける位置及び/または向きを示すために)脛骨15102に重ね合わせた外観でマーカを表示してよい。仮想マーカは、外科医がガイドピンを取り付けるのをガイドする脛骨15102上の点の(例えば、図34の軸3400と類似の)仮想軸であってよい。例えば、図151Aに示すように、可視化デバイス213は、仮想軸15114A、15114B、15116A及び15116Bを表示して、例えば、軸に沿ってガイドピン15104A、15104B、15106A及び15106Bの取付をそれぞれガイドしてよい。仮想軸15114A、15114B、15116A及び15116Bは、図151Bのガイドピン15104A、15104B、15106A及び15106Bに類似した外観で図151Aに表示されているが、ガイドピン(例えば、ガイドピン15104A、15104B、15106A及び15106B)の取付をガイドする仮想マーカの表示はそのように限定されるものではない。MRシステム212が表示し得る仮想マーカの他の例は、軸、矢印、点、丸、リング、多角形、X形状、十字、ターゲット、または任意の他の形状もしくは形状の組み合わせを含むが、これらに限らない。MRシステム212は、静的特徴として、または、様々なアニメーションまたは他の効果を有するように、仮想マーカを表示してよい。
MRシステム212は、物理的ガイドも使用するかどうかに応じて、異なるタイプの仮想マーカも利用してよい。一例として、脛骨ガイド15112を使用する図151Bの例では、MRシステム212は、矢印を利用して、取り付けるガイドピンの取付をガイドしてよい。図151Bに示すように、可視化デバイス213は、脛骨ガイド15112の特定の穴を介してガイドピン15106Aの取付をガイドする矢印を表示してよい。別の例として、脛骨ガイド15112を使用しない図151Aの例では、MRシステム212は、仮想軸を利用して、ガイドピンの取付をガイドしてよい。図151Aに示すように、可視化デバイス213は、仮想軸15116Aを表示して、ガイドピン15106Aの取付をガイドしてよい。
複数のガイドピンを取り付ける例では、可視化デバイス213は、各ガイドピンに対して各仮想マーカを表示してよい。図151の例では、可視化デバイス213は、ガイドピン15104A、15104B、15106A及び15106Bの取付をガイドする複数の仮想マーカを表示してよい。いくつかの例では、可視化デバイス213は、仮想マーカを同時に表示してよい。例えば、可視化デバイス213は、例えば、ガイドピンのアライメントのために、仮想軸15114A、15114B、15116A及び15116Bを同時に表示してよい。他の例では、可視化デバイス213は、特定の時点で仮想マーカの全てより少ない仮想マーカを表示してよい。例えば、可視化デバイス213は、仮想マーカを順次、表示してよい。一例として、第1の時点で、可視化デバイス213は、第1のガイドピン(例えば、ガイドピン15104A)の取付をガイドする第1の仮想マーカを表示してよい。第1の時点の後(例えば、ガイドピン15104Aを取り付けた後)の第2の時点で、可視化デバイス213は、第2のガイドピン(例えば、ガイドピン15104B)の取付をガイドする第2の仮想マーカを表示してよい。言い換えると、ガイドピン15404Aが取り付けられたと判断することに応答して、可視化デバイス213は、ガイドピン15404Aの取付をガイドした仮想マーカの表示を停止し、次に取り付けるガイドピンの仮想マーカを表示してよい。可視化デバイス213は、全ての必要なガイドピンを取り付けるまで(例えば、ガイドピン15104A、15104B、15106A及び15106Bを取り付けるまで)、仮想マーカの表示を順次、続けてよい。このように、MRシステム212は、複数の仮想軸を表示してよく、各仮想軸は、仮想手術計画から取得されたパラメータを有し、各仮想軸は、複数のピンの各ガイドピンの脛骨への取付をガイドするように構成される。
MRシステム212は、仮想マーカを特定の色で表示してよい。例えば、いくつかの例では、MRシステム212は、緑、青、黄色等、赤以外の色で仮想マーカを表示することが好ましい。赤以外の色(複数可)で仮想マーカを表示することは、1つまたは複数の利点を提供し得る。例えば、血液は赤く見え、血液は関心のある解剖学的構造上もしくはそのまわりに存在し得るので、赤色の仮想マーカは見えない場合がある。
可視化システム213が複数の仮想マーカを同時に表示する場合等、いくつかの例では、可視化システム213は、外科医が対応する作業ステップを完了した後、仮想マーカの表示を変更または修正してよい。仮想マーカの表示の変更は、色を変えること、マーカタイプを変えること、アニメーション化(例えば、点滅または閃光)、追加の要素(例えば、仮想マーカ上またはその近くにXまたはチェックマーク)を表示すること、または任意の他の視覚的に認識できる変更を含むが、これらに限らない。例えば、可視化システム213は、ガイドピン15104Aの取付をガイドする第1の仮想マーカを仮想軸として、また、ガイドピン15104Bの取付をガイドする第2の仮想マーカを仮想軸として最初に表示してよい。外科医がガイドピン15104Aを取り付けた後、可視化システム213は、第2の仮想マーカの表示を仮想軸として維持したまま、ガイドピン15104Aの取付をガイドするために表示された第1の仮想マーカを(例えば、仮想軸から十字線に変更するように)修正してよい。
MRシステム212は、仮想マーカに加えて、または、仮想マーカの代わりに、他の仮想ガイダンスを提供してよい。例えば、MRシステム212は、外科医がガイドピンを目標深さまで取り付けることを可能にする深さガイダンス(例えば、図66~図68を参照して前述した深さガイダンスと類似の深さガイダンス)を表示してよい。別の例として、MRシステム212は、ターゲッティングガイダンスを提供してよい。例えば、MRシステム212は、(例えば、図36A~図36Dを参照して前述したような)ピン取付の中心点または規定の軸を識別する仮想マーカ、及び/またはガイドピンが規定の軸と整列しているかどうかを示すものの一方または両方を表示してよい。上記のように、MRシステム212は、ガイドピン及び/またはガイドピンを駆動するドリルの位置/向きをモニタリングして、モニタリングした位置/向きを規定の軸と比較することによって、ガイドピンが規定の軸と整列しているかどうかを判断してよい。
外科医は、仮想ガイダンスを使用して、ガイドピン15104A、15104B、15106A及び15106Bを取り付けてよい。脛骨ガイド15112を使用した例では、外科医は、ガイドピン15104A、15104B、15106A及び15106Bの取付後、脛骨ガイド15112を取り除いてよい。
図152は、脛骨にドリルで穴を開ける例を示す概念図である。図152に示すように、外科医は、ガイドピン15104A、15104B、15106A及び15106Bを使用して、ドリルガイド15202を脛骨15102に取り付けてよい。ドリルガイド15202は、脛骨15102へのドリルでの穴開けをガイドする1つまたは複数のチャネルを含む。例えば、図152に示すように、ドリルガイド15202は、第1のチャネル15204A及び第2のチャネル15204Bを含む。外科医は、ドリル(例えば、脛骨コーナードリルビットを有する外科用モータ)を利用して、第1のチャネル15204A及び第2のチャネル15204Bのそれぞれを用いてドリルで穴を開けてよい。このように、外科医は、脛骨15102の近位の角部の両方にバイコーティカルにドリルで穴を開けてよい。
ドリルガイド15202に加えて、または、その代わりに、MRシステム212は、脛骨15102の近位の角部のドリルによる穴開けで外科医を支援する仮想ガイダンスを提供してよい。例えば、可視化デバイス213は、外科医が脛骨15102にドリルで穴を開けるのをガイドする仮想マーカを表示してよい。可視化デバイス213は、(例えば、ドリルで穴を開ける位置及び/または向きを示すように)仮想マーカを脛骨15102上に重ね合わせて表示してよい。仮想マーカは、外科医がドリルによる穴開けを行うのをガイドする脛骨15102の点にある(例えば、図34の軸3400に類似した)仮想ドリル軸であってよい。ガイドピンの取付をガイドする上記仮想マーカと同様、可視化デバイス213は、同時にまたは順次、脛骨15102の近位の両方の角部のドリルによる穴開けをガイドする仮想マーカを表示してよく、ドリルによる穴開けをガイドする仮想マーカは、脛骨の近位の各角部にあってよい。
MRシステム212は、仮想マーカに加えて、または仮想マーカの代わりに、他の仮想ガイダンスを提供してよい。例えば、MRシステム212は、外科医が目標深さまでドリルで穴を開けることができるように深さガイダンス(例えば、図66~図68を参照して前述した深さガイダンスと類似の深さガイダンス)を表示してよい。別の例として、MRシステム212は、ターゲッティングガイダンスを提供してよい。例えば、MRシステム212は、(例えば、図36A~図36Dを参照して前述したように)、例えば、脛骨または距骨へのドリルによる穴開けの中心点または規定の軸を識別する仮想マーカ、及び/またはドリルビットが規定の軸と整列しているかどうかを示すものの一方または両方を表示してよい。上記のように、MRシステム212は、ドリルビット及び/またはドリルビットを駆動するドリルの位置/向きをモニタリングし、モニタリングした位置/向きを規定の軸と比較することによって、ドリルビットが規定の軸と整列しているかどうかを判断してよい。
いくつかの例では、MRシステム212は、(例えば、図83~図108を参照して)本開示に記載した手術アイテム追跡技術を利用して、足関節形成を支援してよい。例えば、MRシステム212は、複数の手術アイテムから手術アイテムを選択してよい。複数の手術アイテムは、足関節形成術を行うための1つまたは複数のトレイに含まれてよい。例示の手術アイテムは、ツール、器具、インプラント、関連するハードウェアを含むが、これらに限らない。MRシステム212は、(例えば、看護師、または外科医以外の人が着用している)第2の可視化デバイスに、複数の手術アイテムの中から選択された手術アイテムを識別する仮想情報を表示させてよく、仮想情報は、第2の可視化デバイスを介して見ることができる選択された手術アイテムの位置上、またはその近くに存在する。MRシステム212は、足関節形成術の現在のステップに関連付けられた手術アイテムとして手術アイテムを選択してよい。例えば、外科医がドリルガイド15202を使用して脛骨の角部にドリルで穴を開けてよい図152の例では、MRシステム212は、ドリルガイド15202を選択された手術アイテムとして選択してよい。第2の可視化デバイスは、ドリルガイド15202を識別する(例えば、図105~図108と類似の方法でドリルガイド15202を強調表示、または他の方法で識別する)仮想情報を表示してよい。
図150の足関節修復手術の段階を引き続き参照すると、外科医は、脛骨切除プロセスを行ってよい(15008)。例えば、外科医は、脛骨インプラントをその後に取り付けるスペースを作るために脛骨15102の一部を取り除いてよい。いくつかの例では、外科医は、脛骨15102に3つの切断(例えば、近位切断、内側切断、及び外側切断)を行うことによって、脛骨切除を行って、脛骨15102の一部を取り除き、脛骨インプラントのその後の取付のためのスペースを作成してよい。上記のように、MRシステム212は、特定のステップ(複数可)を行う方法を説明するアニメーション、ビデオまたはテキストを表示してよい。例えば、MRシステム212は、脛骨切除の方法を示す図またはアニメーションを可視化デバイス213に表示させてよい。これも前述のように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目が整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、脛骨切除を行う現在のステップまたはステップのシーケンスを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
図153は、脛骨の例示の切除を示す概念図である。図153に示すように、外科医は、ガイドピン15104A、15104B、15106A及び15106Bを使用して、切除ガイド15302を脛骨15102上に取り付けてよい。切除ガイド15302は、脛骨15102内への切断の実行をガイドする1つまたは複数のチャネルを含む。例えば、図153に示すように、切除ガイド15202は、内側切断の実行をガイドする第1のチャネル15306Aと、近位切断の実行をガイドする第2のチャネル15306Bと、外側切断の実行をガイドする第3のチャネル15306Cとを含む。いくつかの例では、切除ガイド15302は、距骨15108の切除の実行をガイドする第4のチャネルを含んでよい。例えば、図153に示すように、切除ガイド15302は、第4のチャネル15304を含んでよい。外科医は、鋸刃(例えば、振動骨鋸)を利用して、チャネル15306A~15306Cを用いて、内側切断、外側切断、及び近位切断を行ってよい。このように、外科医は、脛骨15102の切除を行ってよい。
切除ガイド15302に加えて、またはその代わりに、MRシステム212は、脛骨15102の切除を行う外科医を支援する仮想ガイダンスを提供してよい。例えば、可視化デバイス213は、脛骨15102に切断を行う外科医をガイドする仮想マーカを表示してよい。可視化デバイス213は、(例えば、切断が行われる位置及び/または向きを示す)脛骨15102に重ね合わされたマーカを表示してよい。仮想マーカは、外科医が切断を行うのをガイドする脛骨15102の点の仮想切断線、仮想切断表面、または(例えば、図42A及び図42Bの仮想切断面4200と類似の)仮想切断面であってよい。ガイドピンの取付をガイドする上記仮想マーカと同様に、可視化デバイス213は、近位切断、内側切断、及び外側切断の実行をガイドする仮想マーカを同時にまたは順次表示してよい。このように、MRシステム212は、複数の仮想切断表面を表示してよく、各仮想切断表面は、仮想手術計画から取得されたパラメータを有し、複数の仮想切断表面は、脛骨の切除をガイドするように構成される。
MRシステム212は、仮想マーカに加えて、または仮想マーカの代わりに、他の仮想ガイダンスを提供してよい。例えば、MRシステム212は、外科医が目標深さまで切断を行うのを可能にする深さガイダンス(例えば、図66~図68を参照して前述した深さガイダンスと類似の深さガイダンス)を表示してよい。別の例として、MRシステム212は、ターゲッティングガイダンスを提供してよい。例えば、MRシステム212は、(例えば、図36A~図36Dを参照して前述した)切断の規定された平面を識別する仮想マーカ、及び/または鋸刃が規定された平面と整列しているかどうかを示すものの一方または両方を表示してよい。上記のように、MRシステム212は、鋸刃及び/または鋸刃を駆動するモータの位置/向きをモニタリングし、モニタリングされた位置/向きを規定された平面と比較することによって、鋸刃が規定された平面と整列しているかどうかを判断してよい。
外科医は、切除部分(すなわち、切断によって切り離された脛骨15102の部分)を取り除いてよい。ガイドピン15104A及び15104Bは、切除部分に取り付けられてよく、切除部分を除去すると、取り除かれてよい。
上記のように、MRシステム212は、足関節形成術の現在のステップのために選択された手術アイテムを識別する仮想情報を第2の可視化デバイスに表示させてよい。例えば、外科医が切除ガイド15302を使用して脛骨切除を行ってよい図153の例では、MRシステム212は、選択された手術アイテムとして切除ガイド15302を選択してよい。
さらに、図150の足関節修復手術の段階を参照すると、外科医は、可視化デバイス213によって外科医に提示される視野に仮想距骨物体を患者の実際の距骨に位置合わせする位置合わせプロセス(15010)を行ってよい。例えば、MRシステム212は、図2のストレージシステム206から仮想距骨物体を取得してよい。上記仮想脛骨物体と同様に、仮想距骨物体は、患者の距骨の術前撮像(例えば、CT撮像)に基づいて生成してよい。MRシステム212は、任意の適切なプロセスを用いて位置合わせを行ってよい。例えば、MRシステム212は、図20A~図31を参照して前述した位置合わせ技術のいずれかを使用して、仮想距骨物体の患者の実際の距骨との位置合わせを行ってよい。上記のように、位置合わせは、仮想距骨物体と患者の実際の距骨の間の変換行列を生成してよい。これも前述したように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目は整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、仮想距骨物体を患者の実際の距骨に位置合わせする現在のステップ、またはステップのシーケンスを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
さらに、図150の例では、外科医は、距骨を準備する様々な作業ステップを行ってよい(15012)。距骨を準備する例示の作業ステップは、1つまたは複数のガイドピンを距骨に取り付けること、距骨に1つまたは複数の穴をドリルで開けること、及び/または1つまたは複数のガイド(例えば、切断ガイド、ドリルガイド、リーミングガイド等)を距骨に取り付けることを含むが、これらに限らない。MRシステム212は、距骨を準備する様々な作業ステップで外科医を支援する仮想ガイダンスを提供してよい。上記のように、MRシステム212は、特定のステップ(複数可)を行う方法を説明するアニメーション、ビデオまたはテキストを表示してよい。例えば、MRシステム212は、距骨をどのように準備するかを示す図またはアニメーションを可視化デバイス213に表示させてよい。これも前述したように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目は整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、距骨を準備する現在のステップ、またはステップのシーケンスを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
図154A及び図154Bは、距骨準備プロセス中に距骨に取り付けられた例示のガイドピンを示す概念図である。図154A及び図154Bに示すように、外科医は、ガイドピン15402A及び15402Bを距骨15108内に取り付けてよい。
図154Bの例等、いくつかの例では、外科医は、物理的ガイドを使用してガイドピン15402A及び15402Bを取り付けてよい。例えば、外科医は、距骨ガイド15404を距骨15108に配置して、距骨ガイド15404の1つまたは複数の穴を利用して、ガイドピン15402A及び15402Bの取付をガイドしてよい。いくつかの例では、距骨ガイド1540は、距骨15108の輪郭に一致するように設計された表面を有するように製造された患者固有のガイドであってよい。このような患者固有のガイドの一例は、Wright Medical Group N.V.社製のProphecy(登録商標)Infinity(登録商標)Total AnkleシステムのProphecy Talus Alighment Guideである。
距骨ガイド15404に加えて、またはその代わりに、MRシステム212は、ガイドピン15402A及び15402Bの取付で外科医を支援する仮想ガイダンスを提供してよい。例えば、可視化デバイス213は、外科医がガイドピン15402A及び15402Bを取り付けるのを支援する1つまたは複数の仮想マーカを表示してよい。例えば、図154Aに示すように、可視化デバイス213は、ガイドピン15402A及び15402Bの取付をそれぞれガイドする仮想軸15406A及び15406Bを表示してよい。可視化デバイス213は、図151A及び図151Bを参照して前述したのと同様に、仮想マーカを表示してよい。MRシステム212は、仮想マーカに加えて、または仮想マーカの代わりに、ガイドピン15402A及び15402Bの取付を支援する他の仮想ガイダンスを提供してよい。例えば、MRシステム212は、上記の追加の仮想ガイダンス(例えば、深さガイダンス、ターゲッティングガイダンス等)のいずれかを提供してよい。このように、MRシステム212は、それぞれが仮想手術計画から取得されたパラメータを有する複数の仮想軸を表示してよく、各仮想軸は、距骨への各ガイドピンの取付をガイドするように構成される。仮想軸は、ガイドピンの取付中、外科医が物理的ガイドピンを整列させ得る目視基準を提供することによって、対応するガイドピンの取付をガイドしてよい。本明細書に記載するように、いくつかの例では、MRシステム212は、物理的ガイドピンが実際に仮想軸と整列しているかどうかに関してフィードバックを提供してよい。
外科医は、仮想ガイダンスを使用してガイドピン15402A及び15402Bを取り付けてよい。例えば、外科医は、ガイドピン15402A及び15402Bの縦軸を各仮想軸と整列させて、骨にピンを配置してよい。距骨ガイド15404を使用した例では、外科医は、ガイドピン15402A及び15402Bの取付後、距骨ガイド15404を取り除いてよい。
上記のように、MRシステム212は、足関節形成術の現在のステップに対して選択した手術アイテムを識別する仮想情報を第2の可視化デバイスに表示させてよい。例えば、外科医が距骨ガイド15404を使用してガイドピン15402A及び15402Bを取り付けてよい図154Bの例では、MRシステム212は、選択された手術アイテムとして距骨ガイド15404を選択してよい。
図150を引き続き参照すると、距骨準備プロセスを行った後、外科医は、様々な距骨切除プロセスを行ってよい(15014)。例えば、外科医は、距骨インプラントをその後取り付けるスペースを作るために距骨15108の一部を取り除いてよい。いくつかの例では、外科医は、距骨15108に単一の切断を行うことによって距骨切除を行って、距骨15108の一部を取り除き、距骨インプラントをその後取り付けるスペースを作成してよい。上記のように、MRシステム212は、特定のステップ(複数可)を行う方法を説明するアニメーション、ビデオまたはテキストを表示してよい。例えば、MRシステム212は、距骨切除を行う方法を示す図またはアニメーションを可視化デバイス213に表示させてよい。これも前述したように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目は整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、距骨切除を行う現在のステップ、またはステップのシーケンスを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
図155は、距骨の例示の切除を示す概念図である。図155に示すように、外科医は、ガイドピン15402A及び15402Bを使用して距骨15108上に切除ガイド15302を取り付けてよい。図155の例では、外科医は、脛骨切除を行った時に使用したのと同じ切除ガイド(すなわち、切除ガイド15302)を利用してよい。他の例では、距骨固有の切除ガイドを使用してよい。外科医は、切除ガイド15302を使用して距骨切除を行ってよい。例えば、外科医は、鋸刃(例えば、振動骨鋸)を利用して、チャネル15304を使用した切断を行ってよい。このようにして、外科医は、距骨15108の切除を行ってよい。
切除ガイド15302に加えて、またはその代わりに、MRシステム212は、外科医が距骨15308の切除を行うのを支援する仮想ガイダンスを提供してよい。例えば、可視化デバイス213は、外科医が距骨15108に切断を行うのをガイドする仮想マーカを表示してよい。可視化デバイス213は、(例えば、切断を行う位置及び/または向きを示す)マーカを距骨15108に重ね合わせて表示してよい。仮想マーカは、外科医が切断を行うのをガイドする距骨15108上の点にある仮想切断線、仮想切断表面、または(例えば、図42A及び図42Bの仮想切断面4200と類似した)仮想切断面であってよい。このように、MRシステム212は、仮想手術計画から取得されたパラメータを有する仮想切断表面を表示してよく、仮想切断表面は、距骨の一次切除をガイドするように構成される。
MRシステム212は、仮想マーカに加えて、または仮想マーカの代わりに、他の仮想ガイダンスを提供してよい。例えば、MRシステム212は、外科医が目標深さまで切断を行うのを可能にする深さガイダンス(例えば、図66~図68を参照して前述した深さガイダンスに類似した深さガイダンス)を表示してよい。別の例として、MRシステム212は、ターゲッティングガイダンスを提供してよい。例えば、MRシステム212は、(例えば、図36A~図36Dを参照して前述した)切断の規定された平面を識別する仮想マーカ、及び/または鋸刃が規定された平面と整列しているかどうかを示すものの一方または両方を表示してよい。上記のように、いくつかの例では、MRシステム212は、鋸刃または鋸刃に接続されたもの(例えば、鋸モータ本体、鋸ハンドル、物理的登録マーカ等)を対応する仮想モデルに位置合わせし、対応する仮想モデルの位置を規定された平面と比較することによって、鋸刃が規定された平面と整列しているかどうかを判断してよい。
外科医は、切除部分(すなわち、切断によって切り離された距骨15108の部分)を取り除いてよい。いくつかの例では、外科医は、様々なツール(例えば、往復鋸または骨やすり)を使用して、切除部分が取り除かれた後に残った余分な骨を取り除いてよい。図156は、脛骨切除及び距骨切除の実行後の例示の足首の概念図である。
外科医は、脛骨15102及び/または距骨15108がインプラントを受け入れる準備をするために脛骨15102及び/または距骨15108の一方または両方に1つまたは複数の追加の作業ステップを行ってよい。例示の追加の作業ステップは、脛骨トレイトライアル、脛骨ペグのブローチ加工、距骨の面取り切除、及び距骨ペグのドリルによる穴開けを含むが、これらに限らない。
図157A~図157Cは、脛骨トレイトライアルの例を示す概念図である。いくつかの例で、取り付けられた時に、脛骨インプラントの後方端が脛骨15102の後方部分に少なくとも達することを確実にすることが望ましい。さらに、いくつかの例では、利用可能な複数のサイズの脛骨インプラントがあってよい。従って、どのサイズの脛骨インプラントを利用すべきかを外科医が決定するのが望ましい。脛骨インプラントの後方端が脛骨15102の後方部分に少なくとも達することを確実にするために、及び/またはどのサイズの脛骨インプラントを利用するかを決定するために、外科医は、脛骨トレイトライアルを行ってよい。
脛骨トレイトライアルを行うために、外科医は、脛骨トレイトライアル15702を脛骨15102に取り付けてよい。図157Aに示すように、脛骨トレイトライアル15702は、後方端15704、インジケータ15710、ガイドピン穴15712A及び15712B、ブローチ加工穴15714A及び15714B(追加の前方ブローチ加工穴15714Cは図示されていない)、並びに前方表面15716を含んでよい。外科医は、ガイドピン15106A及び15106Bを対応するガイドピン穴15712A及び15712Bにスライドさせることによって、脛骨トレイトライアル15702を脛骨15102に取り付けてよい。いくつかの例では、脛骨トレイトライアル15702を取り付けた後、外科医は、(例えば、図158に示すように)脛骨トレイトライアル15702の前方表面15716と同一平面になるようにガイドピン15106A及び15106Bを切り整えてよい。
いくつかの例では、外科医は、蛍光透視法を利用して、脛骨トレイトライアルを行ってよい。例えば、外科医は、蛍光透視法を利用して、脛骨トレイトライアル15702と脛骨15102の相対位置を決定してよい。
MRシステム212は、脛骨トレイトライアルを支援する仮想ガイダンスを提供してよい。一例として、可視化デバイス213は、脛骨トレイトライアル15702と脛骨15102の相対位置を示す合成されたビューを表示してよい。可視化デバイス213は、図66~図68を参照して前述したのと類似の方法で合成されたビューを表示してよい。例えば、MRシステム212は、脛骨トレイトライアル15702を脛骨トレイトライアルの対応する仮想モデルに位置合わせしてよく、脛骨トレイトライアル15702及び脛骨15102の位置合わせされた仮想モデルを利用して、脛骨トレイトライアル15702及び脛骨15102の仮想モデルの相対位置を示すビューを合成してよい。脛骨トレイトライアル15702及び脛骨15102の仮想モデルはそれぞれ、脛骨トレイトライアル15702及び脛骨15102に位置合わせされるので、脛骨トレイトライアル15702及び脛骨15102の仮想モデルの相対位置は、脛骨トレイトライアル15702及び脛骨15102の相対位置に対応する。合成されたビューは、図157B及び図157Cの概念図に類似して見え得る。
外科医は、合成されたビューを利用して、脛骨トレイトライアル15702に対して1つまたは複数の調整を行ってよい。例えば、脛骨トレイトライアル15702の後方端15704が脛骨15102の後方端15706を超えて延びていることを合成されたビューが示す場合、外科医は、脛骨トレイトライアル15702を脛骨トレイトライアル15702の後方端15704の方に前方に進めるように調整してよい。例えば、外科医は、ツール15708を利用して、脛骨トレイトライアル15702を前方に平行移動させてよい。
外科医は、合成されたビューを利用して、どのサイズの脛骨インプラントを利用すべきかを決定してよい。例えば、脛骨トレイトライアル15702の(切り込みとして図157Cに示す)インジケータ15710が脛骨15102の後方端15706を超えて延びていることを合成されたビューが示す場合、外科医は、第1のサイズの脛骨インプラント(例えば、標準サイズ)を利用すべきであると決定してよい。脛骨トレイトライアル15702のインジケータ15710が脛骨15102の後方端15706を超えて延びていないことを合成されたビューが示す場合、外科医は、第2のサイズの脛骨インプラント(例えば、長いサイズ)を利用すべきであると決定してよい。
上記のように、MRシステム212は、外科医が仮想ガイダンスを使用して脛骨トレイトライアルを行うのを可能にし得る。いくつかの例では、MRシステム212は、外科医が蛍光透視法を用いずに脛骨トレイトライアルを行うのを可能にし得る。
上記のように、MRシステム212は、足関節形成術の現在のステップのために選択された手術アイテムを識別する仮想情報を第2の可視化デバイスに表示させてよい。例えば、外科医が脛骨トレイトライアル15702を使用してよい図157A~157Cの例では、MRシステム212は、選択された手術アイテムとして脛骨トレイトライアル15702を選択してよい。
外科医は、脛骨インプラントの固定点を作成してよい。例えば、外科医は脛骨トレイトライアルを利用して脛骨ペグのブローチ加工を行ってよい。図158は、脛骨インプラント固定具の例示の作成を示す概念図である。図158に示すように、外科医は、前方脛骨ペグブローチ15802Aを利用して、ブローチ加工穴15714Aを使用して、脛骨15102の第1の前方穴をブローチ加工してよく、前方脛骨ペグブローチ15802Aを利用して、ブローチ加工穴15714Cを使用して脛骨15102の第2の前方穴をブローチ加工してよく、後方脛骨ペグブローチ15802Bを利用して、ブローチ加工穴15714Bを使用して脛骨15102の穴をブローチ加工してよい。脛骨15102でブローチ加工された穴は、脛骨インプラントの固定点を構成してよい。
上記のように、MRシステム212は、足関節形成術の現在のステップのために選択された手術アイテムを識別する仮想情報を第2の可視化デバイスに表示させてよい。例えば、外科医が前方脛骨ペグブローチ15802A及び後方脛骨ペグブローチ15802Bを使用してよい図158の例では、MRシステム212は、前方脛骨ペグブローチ15802A及び後方脛骨ペグブローチ15802Bを選択された手術アイテム(複数可)として選択してよい。上記のように、MRシステム212は、第2の可視化デバイス及び/または可視化デバイス213に、選択された手術アイテム(すなわち、前方脛骨ペグブローチ15802A及び後方脛骨ペグブローチ15802B)を視覚的に区別させてよい。
外科医は、1つまたは複数の距骨の面取り切除を行って、距骨インプラントを受け入れる距骨15108をさらに準備してよい。いくつかの例では、外科医は、前方距骨の面取り切除と後方距骨の面取り切除とを行ってよい。1つまたは複数の距骨切除を行うために、外科医は、1つまたは複数のガイドピンを距骨15108に取り付けてよい。
図159A及び図159Bは、ガイドピンの距骨15108への例示の取付を示す概念図である。MRシステム212は、外科医がガイドピン15904A及び15904Bを距骨15108に取り付けるのをガイドする仮想ガイダンスを提供してよい。例えば、図159Aに示すように、可視化デバイス213は、距骨15108に重ね合わせられた仮想軸15902A及び15902Bを表示して、ガイドピン15904A及び15904Bの距骨15108への取付をガイドしてよい。図159Aに仮想軸として示すが、可視化デバイス213は、本明細書に記載の仮想マーカのいずれかを表示して、ガイドピン15904A及び15904Bへの距骨15108への取付をガイドしてよい。
いくつかの例では、外科医は、ガイドピン15904A及び15904Bの距骨15108への取付を支援する物理的ガイドを利用してよい。例えば、外科医は、蛍光透視法を利用して、距骨ドームトライアルコンポーネントを配置してよい。距骨ドームトライアルコンポーネントを配置すると、外科医は、距骨ドームトライアルコンポーネントの穴を利用して、ガイドピン15904A及び15904Bの取付をガイドしてよい。
外科医は、ガイドピン15904A及び15904Bを使用して距骨の面取り切除を行ってよい。例えば、図160に示すように、外科医は、ガイドピン15904A及び15904Bを使用して、距骨切除ガイドベース16002を距骨15108上に配置してよい。外科医は、1つまたは複数のコンポーネントを利用して、距骨切除ガイドベース16002を距骨15108に固定してよい。例えば、図161に示すように、外科医は、固定ネジ16102A及び16102Bを、切除ガイドベース16002を通して距骨15108に取り付けてよい。
MRシステム212は、外科医が固定ネジ16102A及び16102Bを取り付けるのを支援する仮想ガイダンスを提供してよい。一例として、可視化デバイス213は、固定ネジ16102A及び16102Bを取り付ける箇所及び軸を示す仮想マーカを表示してよい。別の例として、可視化デバイス213は、外科医が固定ネジ16102A及び16102Bを目標深さに取り付けるのを可能にする深さガイダンス(例えば、例えば、図66~図68を参照して前述した深さガイダンスに類似した深さガイダンス)を提供してよい。いくつかの例では、MRシステム212は、閉ループのツール制御を利用して、固定ネジ16102A及び16102Bを取り付けるのに使用されるドリルを積極的に制御してよい。例えば、MRシステム212は、上記の閉ループのツール制御技術を利用して、例えば、図72を参照すると、所望の深さ及び/またはトルクに達すると、固定ネジ16102A及び16102Bの取付に使用するドリルの速度を低減及び/または停止してよい。
外科医は、距骨切除ガイドベース16002を利用して、後方距骨の面取り切除を行ってよい。例えば、図161に示すように、外科医は、鋸刃16104を距骨切除ガイドベース16002のスロット16004内に挿入して、後方距骨の面取り切除を行ってよい。
上記のように、MRシステム212は、足関節形成術の現在のステップのために選択された手術アイテムを識別する仮想情報を第2の可視化デバイスに表示させてよい。例えば、外科医が距骨切除ガイドベース16002を使用してよい図161の例では、MRシステム212は、選択された手術アイテムとして距骨切除ガイドベース16002を選択してよい。
距骨切除ガイドベース16002に加えて、またはその代わりに、MRシステム212は、外科医が後方距骨の面取り切除を行うのを支援する仮想ガイダンスを提供してよい。例えば、可視化デバイス213は、外科医が後方距骨の面取り切除を行うのを支援する仮想マーカを表示してよい。可視化デバイス213は、(例えば、切断を行う位置及び/または向きを示す)マーカを距骨15108上に重ね合わせて表示してよい。仮想マーカは、外科医が切断を行うのをガイドする距骨15108の点にある仮想表面または(例えば、図42A及び図42Bの仮想切断面4200と類似した)仮想切断面であってよい。
外科医は、距骨切除ガイドベース16002を利用して、前方距骨の面取り切除を行ってよい。例えば、図162に示すように、外科医は、前方距骨ガイド16202を距骨切除ガイドベース16002に取り付けてよい。外科医は、距骨リーマ16204を有するドリルを利用して、距骨15108の前方表面をリーミングしてよい。例えば、外科医は、距骨リーマ16204を、前方距骨ガイド16202を通して水平方向にスライドして、距骨インプラントの前方平面に合わせて距骨15108の表面を準備してよい。図162に示すように、距骨リーマ16204は、深さ止め16206を含んでよく、深さ止め16206は、前方距骨ガイド16202の表面16208と係合して、リーミング深さを制御する。外科医は、距骨ガイド16202を180度回転させ、(今や、回転された)前方距骨ガイド16202を通して距骨リーマ16204を再び、水平方向にスライドさせて、距骨インプラントの前方の面取りのために距骨15108の表面を準備してよい。上記のように、距骨リーマ16204は、深さ止め16206を含んでよく、深さ止め16206は、前方距骨ガイド16202の表面16208と係合してリーミング深さを制御する。
いくつかの例では、前方平面と前方面取りの準備の一方または両方のために、外科医は、(例えば、距骨リーマ16204を用いて)プランジ切断を行って、リーミングのために距骨15108を準備してよい。例えば、外科医は、プランジ切断の実行をガイドする穴を有するパイロットガイドを取り付けてよい。距骨リーマ16204の深さ止め16206は、プランジ深さを制御するパイロットガイドの表面と係合してよい。
距骨切除ガイドベース16002に加えて、またはその代わりに、MRシステム212は、外科医が前方距骨の面取り切除を行うのを支援する仮想ガイダンスを提供してよい。例えば、可視化デバイス213は、外科医がプランジ切断及び/または水平リーミングを行うのをガイドする1つまたは複数の仮想マーカを表示してよい。一例として、可視化デバイス213は、各プランジ切断に対して各仮想軸を表示してよい。MRシステム212は、仮想マーカに加えて、または仮想マーカの代わりに、プランジ切断及び/または水平リーミングを行うのを支援する他の仮想ガイダンスを提供してよい。例えば、MRシステム212は、上記追加の仮想ガイダンス(例えば、深さガイダンス、ターゲッティングガイダンス等)のいずれかを提供してよい。
外科医は、距骨ペグドリルによる穴開けを行って、距骨インプラントのために距骨15108に固定点を作成してよい。MRシステム212は、外科医が前方距骨の面取り切除を行うのを支援する仮想ガイダンスを提供してよい。例えば、可視化デバイス213は、外科医が距骨15108にドリルで穴を開けるのをガイドする1つまたは複数の仮想マーカを表示してよい。図164に示すように、可視化デバイス213は、図165のペグ穴16502A及び16502Bのドリルによる穴開けをガイドする仮想軸16402A及び16402Bを表示してよい。MRシステム212は、仮想マーカに加えて、または仮想マーカの代わりに、固定具の作成を支援する他の仮想ガイダンスを提供してよい。例えば、MRシステム212は、上記追加の仮想ガイダンス(例えば、深さガイダンス、ターゲッティングガイダンス等)のいずれかを提供してよい。このように、MRシステム212は、複数の仮想ドリル軸を表示してよく、各仮想ドリル軸は、仮想手術計画から取得されたパラメータを有し、各仮想ドリル軸は、距骨の固定点のドリルによる穴開けをガイドするように構成される。
図150を引き続き参照すると、外科医は、脛骨インプラント取付プロセスを行ってよい(15016)。図166は、例示の脛骨インプラントを示す概念図である。図166に示すように、脛骨インプラント16602は、後方ペグ16604Aと、前方ペグ16604B及び16604Cとを備える。図167は、上記ステップを使用して準備した例示の脛骨を示す概念図である。図167に示すように、脛骨15102は、図158を参照して前述したブローチ加工プロセス中に作成したペグ穴16702A~16702Cを含む。
外科医は、脛骨インプラント16602の後方ペグ16604Aと前方ペグ16604B及び16604Cとが、脛骨15102のペグ穴16702A~16702Cと係合するように、脛骨インプラント16602を取り付けてよい。例えば、外科医は、後方ペグ16604Aがペグ穴16702Aとぴったり一致し、前方ペグ16604Bがペグ穴16702Bとぴったり一致し、前方ペグ16604Cがペグ穴16702Cとぴったり一致するように脛骨インプラント16602を配置してよい。ペグが対応するペグ穴とぴったり一致すると、外科医は、脛骨インプラント16602を脛骨15102内に打ち込んでよい。上記のように、MRシステム212は、特定のステップ(複数可)を行う方法を説明するアニメーション、ビデオまたはテキストを表示してよい。例えば、MRシステム212は、脛骨インプラント16602をどのように取り付けるべきかを示す図またはアニメーションを可視化デバイス213に表示させてよい。これも前述したように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目は整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、脛骨インプラントを取り付ける現在のステップ、またはステップのシーケンスを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
図168は、脛骨インプラントの脛骨への例示の打ち込みを示す概念図である。図168に示すように、外科医は、トレイインパクタ16802を利用して、脛骨インプラント16602を脛骨15102内に打ち込んでよい。例えば、外科医は、トレイインパクタ16802の先端16806を脛骨インプラント16602上に配置し、打ち込み点16804A及び/または16804Bの一方または両方を、インパクタ(例えば、ハンマ)を用いて叩いてよい。
図150を引き続き参照すると、外科医は、距骨インプラント取付プロセスを行ってよい(15018)。図169は、例示の距骨インプラントを示す概念図である。図169に示すように、距骨インプラント16902は、第1のペグ16904A及び第2のペグ16904Bを備える。
外科医は、距骨インプラント16902の第1のペグ16904A及び第2のペグ16904Bが距骨15108のペグ穴16502A及び16502Bに係合するように、距骨インプラント16902を取り付けてよい。例えば、外科医は、第1のペグ16904Aがペグ穴16502Aとぴったり一致し、距骨インプラント16902の第2のペグ16904Bがペグ穴16502Bとぴったり一致するように距骨インプラント16902を配置してよい。ペグが対応するペグ穴とぴったり一致すると、外科医は、距骨インプラント16902を距骨15108内に打ち込んでよい。
上記のように、MRシステム212は、足関節形成術の現在のステップのために選択された手術アイテムを識別する仮想情報を第2の可視化デバイスに表示させてよい。例えば、外科医がトレイインパクタ16802を使用してよい図168の例では、MRシステム212は、トレイインパクタ16802を選択された手術アイテムとして選択してよい。
図170は、距骨インプラントの距骨への例示の打ち込みを示す概念図である。図170に示すように、外科医は、距骨インパクタ17002を利用して、距骨インプラント16902を距骨15108内に打ち込んでよい。例えば、外科医は、距骨インパクタ17002の先端17004を距骨インプラント16902上に配置し、インパクタ(例えば、ハンマ)を用いて、距骨インパクタ17002の打ち込み点を叩いてよい。
上記のように、MRシステム212は、足関節形成術の現在のステップのために選択された手術アイテムを識別する仮想情報を第2の可視化デバイスに表示させてよい。例えば、外科医が距骨インパクタ17002を使用してよい図168の例では、MRシステム212は、距骨インパクタ17002を選択された手術アイテムとして選択してよい。上記のように、MRシステム212は、特定のステップ(複数可)を行う方法を説明するアニメーション、ビデオまたはテキストを表示してよい。例えば、MRシステム212は、距骨インプラント16902をどのように取り付けるべきかを示す図またはアニメーションを可視化デバイス213に表示させてよい。これも前述したように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目は整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、距骨インプラントを取り付ける現在のステップ、またはステップのシーケンスを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
図150を引き続き参照すると、外科医は、ベアリング取付プロセスを行ってよい(15020)。外科医は、脛骨インプラント16602と距骨インプラント16902の間にベアリングを取り付けてよい。例えば、図171に示すように、外科医は、脛骨インプラント16602と距骨インプラント16902の間にベアリング17102を取り付けてよい。上記のように、MRシステム212は、特定のステップ(複数可)を行う方法を説明するアニメーション、ビデオまたはテキストを表示してよい。例えば、MRシステム212は、ベアリング17102をどのように取り付けるかを示す図またはアニメーションを可視化デバイス213に表示させてよい。これも前述したように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目は整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、ベアリングを取り付ける現在のステップ、またはステップのシーケンスを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
その後、図150の例では、外科医は、創縫合プロセスを行ってよい(15022)。創縫合プロセス中、外科医は、患者の足首の創を縫合するために、切開プロセス中に切断した組織を再びつないでよい。上記のように、MRシステム212は、特定のステップ(複数可)を行う方法を説明するアニメーション、ビデオまたはテキストを表示してよい。例えば、MRシステム212は、どのように創を縫合するかを示す図またはアニメーションを可視化デバイス213に表示させてよい。これも前述したように、MRシステム212は、仮想チェックリストを表示してよく、チェックリスト項目の各項目は整形外科手術のステップのチェックリストの項目に対応する。例えば、MRシステム212は、創を縫合する現在のステップ、またはステップのシーケンスを指定するチェックリスト項目を有する仮想チェックリストを表示してよい。
図172は、本開示の1つまたは複数の技術による、MR支援手術の例示の技術を示すフロー図である。上記のように、外科医は、MRシステム212の可視化デバイス213等、MRシステムの可視化デバイスを着用してよい。
MRシステム212は、可視化デバイスを介して、患者の解剖学的構造の一部分の仮想モデルを可視化デバイスによって見ることができる解剖学的構造の対応する部分へ位置合わせしてよい(17202)。例えば、MRシステム212は、図20A~図31を参照して前述した位置合わせ技術のいずれかを使用して、仮想脛骨物体の可視化デバイス213を介して見ることができる患者の実際の脛骨との位置合わせを行ってよい。上記のように、MRシステム212は、人工装具を解剖学的構造に取り付ける手術手順の仮想手術計画から仮想モデルを取得してよい。
上記のように、可視化デバイス213は、解剖学的構造の一部分の仮想モデルを解剖学的構造の対応する部分への位置合わせ中、仮想モデルの少なくとも一部分を表示してよい。例えば、図24に示すように、可視化デバイス213は、仮想モデル(例えば、仮想骨モデル)を表示してよく、ユーザ(すなわち、可視化デバイス213を着用している人)は、仮想モデルを解剖学的構造の対応する部分と整列させるように注視をシフトしてよい。いくつかの例では、可視化デバイス213は、位置合わせプロセス後、仮想モデルの表示を停止してよい。いくつかの例では、可視化デバイス213は、位置合わせプロセス後、仮想モデルの表示を維持してよい、及び/または手術中の後の時点で仮想モデルを再表示してよい。
MRシステム212は、人工装具の取付のための解剖学的構造の準備または人工装具の解剖学的構造への取付の少なくとも1つをガイドする仮想ガイドを解剖学的構造の部分に重ね合わせて、可視化デバイスを介して表示してよい(17204)。例えば、MRシステム212は、上記の仮想ガイダンス/ガイドのいずれかを可視化デバイス213に表示させてよい。上記のように、例示の仮想ガイドは、仮想軸、仮想切断表面等を含むが、これらに限らない。これも前述したように、仮想ガイドが現実世界シーンの一部に見えるように、例えば、仮想ガイドがオーバーレイで、または他の方法で実際の現実世界シーン内に一体化してユーザに見えるように、可視化デバイス213は、解剖学的構造の一部上に仮想ガイドを重ね合わせて表示してよい。
上記のように、いくつかの例では、可視化デバイス213は、位置合わせプロセス後、仮想モデルの表示を停止してよい。従って、いくつかの例では、可視化デバイス213は、仮想モデルの表示と異なる時に(例えば、同時ではなく)、仮想ガイドを表示してよい。これも前述したように、いくつかの例では、可視化デバイス213は、位置合わせプロセス後、仮想モデルの表示を維持してよい、及び/または手術中の後の時点で仮想モデルを再表示してよい。従って、いくつかの例では、可視化デバイス213は、仮想ガイドを仮想モデルの表示と同じ時に(例えば、同時に)表示してよい。
本開示の他の箇所に記載される閉ループのツール制御技術がまた、全足関節形成の文脈で使用されてよい。例えば、一例では、閉ループ制御は、全足関節形成中、遠位脛骨切断、近位踵骨切断、内側切断、及び外側切断を行う時に使用される鋸に適用されてよい。別の例では、本開示の他の箇所に記載される深さ制御技術が、全足関節形成の文脈に適用されて、外科医がドリルで穴を深く開けすぎないことを確実にすることを助けてよい。例えば、上記のように、本開示の他の箇所に記載される深さ制御技術が、脛骨切除を行う時、適用されて外科医を支援してよい。
肩関節修復手術に対して本開示の他の箇所に記載される手術アイテム追跡技術は、全足関節形成にも適用されて、ヘルスケア専門家が手術アイテムを選択し、手術アイテムの使用を追跡するのを助けてよい。さらに、本開示の他の箇所に記載されるワークフロー管理プロセスが、全足関節形成での使用に適合されてよい。例えば、XR可視化デバイス(例えば、XR可視化デバイス11702)が、全足関節形成のステップのチェックリストの項目に対応する仮想チェックリスト項目のセットを含むXR可視化(例えば、MR可視化またはVR可視化)を出力してよい。例えば、図19のステップに対応する仮想チェックリスト項目の代わりに、XR可視化は、図150のステップまたは足関節形成の任意の他のステップに対応する仮想チェックリスト項目を含んでよい。
本開示の他の箇所に記載される協力及び教育技術が、全足関節形成等、足首の手術の文脈でも使用されてよい。例えば、一例では、外科医は、全足関節形成または他のタイプの足首の手術中、MR及び/またはVRを使用して、リモートの外科医と相談してよい。別の例では、可視化デバイス213は、例えば、他の人の可視化デバイスのカメラによって撮影された実際の解剖学的物体、すなわち、現実の患者の解剖学的構造と、他の人の可視化デバイスによってMR可視化として生成された仮想物体との両方を含む、患者の足首の他の人のビューを含む二次ビューウィンドウを含むMR可視化を外科医に提示してよい。本開示の他の箇所に記載される可動域追跡技術が、患者の肩の代わりに、患者の足首の文脈にも適用されてよい。
いくつかの例では、本明細書に記載の技術、デバイスまたは方法のいずれも、医療教育及び手術教育の目的で使用されてよい。例えば、複合現実物体または情報を提示する可視化デバイスを使用して、整形外科手術手順、または整形外科手術手順の1つまたは複数のステップもしくは段階について生徒を教育してよい。整形外科手術手順に関して教育される生徒は、手順で訓練される医師、または手順で一般的または具体的に訓練される医学生を含んでよい。あるいは、場合によっては、整形外科医療処置に関して教育される生徒は、処置が行われる患者、または、患者のヘルパー、保護者もしくは家族であってよい。この場合、教師は、患者生徒を訓練する外科医または他の医療専門家を含んでよい。また、医療技師、看護師、医師助手、医療研究者、または任意の他の人が、本明細書に記載の技術及び方法に従うと、生徒であってよい。いくつかの例では、1人または複数の教師が、複合現実の使用を通して説明的指示(及び、場合によっては、デモンストレーション)を1人または複数の生徒に提供してよい。その上、さらに他の例では、生徒(複数可)は、可視化デバイスを使用して、整形外科医療処置の実践技術または訓練技術を複合現実の支援で行ってよい。さらに他の場合では、生徒及び教師は、協力環境で作業する専門家のパネルを含んでよく、この場合、生徒及び教師の役割は、授業中、変わってよい。一般に、複合現実(または、仮想現実)の支援で教えられている人はいずれも、本開示に従うと、生徒であってよく、同様に、複合現実(または、仮想現実)の支援で教えている人はいずれも、本開示に従うと、教師であってよい。
図127は、MR教師デバイス12702とMR生徒デバイス12704とを含む教育システム12701の概念ブロック図である。MR教師デバイス12702及びMR生徒デバイス12704はそれぞれ、本開示を通して詳細に記載している可視化デバイス213を含んでよい。MR教師デバイス12702は、整形外科手術教育12706のMR教育コンテンツを教師に提示してよい。同様に、MR生徒デバイス12704は、整形外科手術教育12706の類似のMR教育コンテンツを生徒に提示してよい。MR教育コンテンツ12706は、MR教師デバイス12702を着用している教師の指導と共に、MR生徒デバイス12704を着用する生徒を教育することを支援してよい。大抵の場合、MR教師デバイス及びMR生徒デバイスは、同じ物理的場所で動作してよいが、本開示の技術は、この点に限らない。例えば、MR教師デバイス12702及びMR生徒デバイス12704が、互いにリモートにある物理的場所で動作することも可能であり、この場合、ユーザは、異なる現実世界の背景を見ながら、MR教育コンテンツ12706を共有してよい。
MR教育コンテンツ12706は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む1つまたは複数の仮想要素を含んでよい。例えば、教育コンテンツ12706内の1つまたは複数の解剖学的特徴の3D仮想表現は、例えば、図10の3D仮想モデル1008、1010として示される等、人間の肩の3D仮想モデルを含んでよい。いくつかの例では、教育コンテンツ12706内の1つまたは複数の解剖学的特徴の仮想表現は、上腕骨頭の3D仮想図、肩甲骨の仮想図、上腕骨の3D仮想図、または関節窩の3D仮想図を含んでよい。さらに他の例では、教育コンテンツ12706内の1つまたは複数の解剖学的特徴の仮想表現は、足首の3D仮想図、距骨の仮想図、または、脛骨もしくは脛骨頭の3D仮想図を含んでよい。以下の多くの教育的詳細は、肩の解剖学的構造の3D仮想表現の文脈で記載されるが、技術は、他の解剖学的構造、足首の解剖学的構造等、特に複雑な解剖学的要素にとって非常に有用でもある。
さらに、1つまたは複数の解剖学的特徴の3D仮想表現に加えて、教育コンテンツ12706は、整形外科手術の少なくとも1つの側面をデモンストレーションする追加の仮想要素をさらに含んでよい。これらの追加の要素は、例えば、整形外科手術の少なくとも1つの態様をデモンストレーションするように、3D仮想表現に対する仮想術前計画要素、3D仮想表現に対する1つまたは複数の仮想手術ガイダンス機能、または、3D仮想表現上に仮想で示された1つまたは複数の手術結果を含んでよい。
教育システム12701のユーザ(例えば、MR生徒デバイス12704及びMR教師デバイス12702を着用している教師及び生徒)は、仮想3D要素を見て、ジェスチャ、注視ベースコントロール、音声入力、または複合現実または仮想現実で有用な任意の制御技術を介して等、仮想コントロールを通して、仮想3D要素を操作してよい。例えば、生徒または教師は、3D仮想肩モデルの仮想の動きを制御してよく、且つ、仮想要素が整形外科手術の1つまたは複数の側面(術前、術中、及び/または術後)をデモンストレーションするのを有効または無効にしてよい。また、手動キーパッド入力、タッチスクリーン入力、ポインタコントロール、任意の仮想制御機構の組み合わせ、または他のタイプのコントロールを教師が使用して、教育コンテンツ12706内の仮想3D要素を操作してよい。
場合によっては、MR生徒デバイス12704及び/またはMR教師デバイス12702は、触覚デバイスを含んでよく、触覚デバイスは、タッチベースの情報をユーザに提供して、ユーザが仮想要素の物理的特性を学習し、仮想要素を操作するのを支援する。触覚デバイスは、例えば、1つまたは複数の触覚グローブ、1つまたは複数の触覚リストバンド、触覚ペンタイプのデバイス、または他の触覚デバイスを含んでよい。触覚デバイスは、可視化デバイスと共に動作して、触覚フィードバックをユーザに提供してよく、触覚フィードバックは、可視化デバイスによってユーザに提示される1つまたは複数の仮想要素に関連付けられてよい。このような触覚フィードバックは、MR生徒デバイス12704よって行われる手術シミュレーションにとって特に有用であり得る。この場合、MR生徒デバイス12704は、1つまたは複数の仮想要素を提示する可視化デバイスと、触覚フィードバックを提供する触覚デバイスとを含んでよい。場合によっては、触覚フィードバックは、可視化デバイスによって提示される1つまたは複数の仮想要素に対してユーザが行う操作と同期されてよい、または連動してよい。
MR生徒デバイス12704またはMR教師デバイス12702等のMRデバイスを使用して、教師または生徒は、教育理由で、空間内において仮想3D要素を回転、サイズ変更、位置変更、または他の方法で移動させてよい。MR生徒デバイス12704またはMR教師デバイス12702は、仮想の肩モデルの異なるセグメントのビューを有効または無効にしてよく、3D仮想モデル上の仮想のインプラントを示す仮想要素、3D仮想モデル上での仮想手術計画、3D仮想モデル上での仮想手術ガイダンス、及び/または3Dモデル上での仮想術後結果を有効または無効にしてよい。
さらに、教師または生徒は、肩関節窩内または人間の足首内の骨の解剖学的動きを示してよい。図11に示す例示の教師モデル1008は、例えば、肩のインプラントコンポーネント1010の仮想3D表現を示す仮想要素と、肩のインプラントコンポーネント1010によって引き起こされ得るインピンジメント点1106を示す仮想要素と共に、肩の3Dモデルを示す。MR生徒デバイス12704またはMR教師デバイス12702等のMRデバイスを用いて、教師または生徒は、関節窩に対して仮想上腕骨を回転させて、肩の動きを示すことができてよい。さらに、教師または生徒はまた、セグメント化していてよい異なる図示の要素のビューを有効または無効にしてよい。上腕骨の部分は、セグメント化されてよく、例えば、上腕骨切断面と、上腕骨上の1つまたは複数の肩インプラントコンポーネントの箇所を見せるために選択的に有効または無効にされてよい。また、肩甲骨または関節窩の部分は、セグメント化されてよく、例えば、肩甲骨または関節窩上の1つまたは複数の肩インプラントコンポーネントの箇所を見せるために選択的に有効または無効にされてよい。
1つまたは複数の解剖学的特徴の3D仮想表現は実際の患者画像に基づいてよい、または、1人または複数の患者の画像に基づいてよい。3D仮想表現は、異なるサブコンポーネントに分割されてよく、サブコンポーネントは、ユーザによって有効または無効にされてよい。場合によっては、3D仮想表現は、コンピュータによって生成されてよい。場合によっては、3D仮想表現は、(例えば、MR生徒デバイス12704またはMR教師デバイス12702のメモリに記憶された、またはリモートに記憶された)3D仮想表現のカタログから選択されてよい。カタログ内の異なる3D仮想表現は、整形外科的修復を必要とし得る多種多様な異なる肩の状態をデモンストレーションしてよい。MR教師デバイス12702を使用する教師は、MR生徒デバイス12704を着用している生徒に教育的デモンストレーションを行うために、例えば、1つまたは複数の3D仮想表現を3D画像のカタログから選択してよい。
3D仮想表現は、特定のレッスンに関して教師によって生徒に対して選択されてよい。MR教師デバイス12702は、例えば、MR教育コンテンツ12706内の3D肩モデルを提示して、特定のタイプの分類(例えば、Walch分類のタイプ)を有する肩を示してよく、特定のタイプの分類は、特定のタイプの手術、または特定のサイズ、角度、及びインプラント位置を有するインプラントコンポーネントの選択を必要とし得る。他のレッスンについては、MR教師デバイス12702は、異なる分類を有する異なる肩モデルを提示してよく、それによって、異なるタイプの手術または異なるインプラントコンポーネント、サイズ、角度及び/またはインプラント位置が必要となる。
1つまたは複数の解剖学的要素の仮想表現等、1つまたは複数の解剖学的要素の3D仮想表現に加えて、MR教育コンテンツ12706は、MR手術ガイダンス情報、MR位置合わせコンテンツ、MRベースの軸、平面もしくはマーカ、MRベースのジグもしくはガイド、MRベースの骨モデルもしくは軟組織モデル、手術用ツールに関するMRベースガイダンス、仮想インプラント、MRベースのワークフローチェックリスト、可動域情報、術前アニメーション、または他のMRベースの情報等、本明細書に記載の多種多様なMRコンテンツのいずれをも含んでよい。任意の所与の教育的設定で使用される特定のMRコンテンツは、しかしながら、教育される生徒に応じて決まり得る。例えば、教育システム12701は、医師、医学生、技師、看護師、医師助手、または整形外科医療処置に関与し得る任意の他の人の教育または訓練に使用されてよい。あるいは、教育システム12701は、行う処置に関して、患者(または、ヘルパー、保護者、患者の家族、及び/または患者の友人)に教えるために使用されてよい。さらに他のケースでは、教育システム12701は、研究者、または整形外科手術に関する1つまたは複数の詳細を学ぶことに関心または理由を有し得る任意の他の人に教えるために使用されてよい。整形外科手術教育12706のMR教育コンテンツは、異なる教育環境に対して選択または規定されてよい。
MR教育コンテンツ12706は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む1つまたは複数の仮想要素を含んでよい。1つまたは複数の解剖学的特徴の3D仮想表現は、例えば、上腕骨頭の3D仮想図または関節窩の3D仮想図等、人間の肩または、場合によっては人間の肩のセグメントの3D仮想モデルを含んでよい。仮想要素は、MR教師デバイス12702及び/またはMR生徒デバイス12704によって制御可能であってよい。MR教師デバイス12702が一般的に、仮想要素を制御してよいが、場合によっては、仮想コントロールが、MR生徒デバイス12704の1つを着用している生徒に与えられてよい。仮想要素の制御は、MR教師デバイス12702(または、MR生徒デバイス12704)のユーザによって、ジェスチャ、注視、音声入力、ジェスチャ、注視もしくは音声入力の組み合わせ、または、仮想コンテンツのMRまたはVRコントロール及び操作に使用される他の技術を用いて、行われてよい。
いくつかの例では、MR教育コンテンツ12706は、手術ガイダンス情報を含んでよく、この手術ガイダンス情報は、MR教師デバイス12702のユーザが、MR生徒デバイス12704のユーザに対して手術の訓練を行うのを可能にし得る。このようなケースでは、MR教育コンテンツ12706は、1つまたは複数の解剖学的特徴の3D仮想表現を含む1つまたは複数の仮想要素、ならびに1つまたは複数の解剖学的特徴の3D仮想表現に対して示されるまたは例示される手術ステップをユーザにガイドするための仮想ガイダンス要素または情報とを含んでよい。他の例では、MR教育コンテンツ12706は、物理的な(例えば、合成の)解剖学的モデル、または死体の解剖学的構造に対して配置された1つまたは複数の仮想要素を含んでよい。例示の物理的な解剖学的モデルは、米国ワシントン州バション島Sawbones USA社から市販されている。死体の解剖学的構造は、死体全体または死体検体を含んでよい。
一例として、MR教育コンテンツ12706は、関節窩の仮想3D表現に対して、または、物理的モデルもしくは死体の関節窩骨に対して配置された仮想リーミング軸を含んでよい。場合によっては、仮想リーミング輪郭も、MR教育コンテンツ12706に含まれてよい。別の例として、MR教育コンテンツ12706は、上腕骨頭の3D仮想表現に対して示される仮想上腕骨切断面、または上腕骨の物理的モデルもしくは死体の上腕骨に対する仮想切断面等、仮想切断面を含んでよい。他の例では、MR教育コンテンツ12706は、仮想ジグまたはガイドを含んでよく、1つまたは複数の解剖学的特徴(仮想関節窩等)の3D仮想表現に対する、または、物理的モデルもしくは死体の解剖学的構造に対して位置決めされた仮想ジグまたはガイドの配置を示してよい。他の例では、MR教育コンテンツ12706は、関節窩の3D仮想表現(または、他の仮想の解剖学的モデル)にガイドポストを挿入するための、または、物理的な解剖学的モデルもしくは死体にガイドポストを挿入するための仮想ドリル点または仮想ドリル軸を示してよい。このような例では、MR教育コンテンツ12706はまた、仮想ジグまたはガイドに対して仮想軸を示してよい。さらに他の例では、MR教育コンテンツ12706は、1つまたは複数の解剖学的特徴の3D仮想表現(例えば、仮想モデル)に対する、または、物理的モデルもしくは死体の解剖学的構造に対する、仮想マーカを含んでよい。仮想マーカは、ドリルによる穴開け、リーミング、研削、インプラントのための準備、インプラントの取付、または患者の解剖学的構造に関する術中手術ガイダンスに示され得る任意のものに対する箇所、点または軸を指定してよい。実際、本開示の他の箇所に記載される手術ガイダンス機能のいずれかを、仮想の解剖学的モデル(または、物理的モデルもしくは死体)に対して、MR教師デバイス12702及びMR生徒デバイス12704によって仮想で提示することによって手術に対する訓練を容易にしてもよい。
物理的モデルは、Sawbones USA社または他の供給源から市販されている物理的骨モデル等、物理的骨モデルを含んでよい。複合現実の支援で、生徒は、リーミングまたは他の手術ステップを物理的骨モデルに対して実践してよい。他の例では、仮想組織モデルを生徒にして提示して、生徒が、MR生徒デバイス12704を介して仮想組織モデルに対する手術による切断または他の手技をシミュレーションするのを可能にすることができる。ユーザの指によるジェスチャが、MR生徒デバイス12704を介して仮想組織モデルに対して切断をシミュレーションしてよく、それによって、生徒は、組織を切断し、解剖学的特徴(関節窩等)を露出させ、仮想組織モデルに対して仮想のインプラントもしくは他のコンポーネントを配置することができる。指ベースの切断ジェスチャ等のジェスチャによって、生徒は、皮膚層、脂肪、筋肉、骨または他の解剖学的構造を露出させるように仮想組織モデルを操作してよい。仮想組織モデルは、セグメント化されてよく、仮想組織モデルの異なる層(皮膚、脂肪、筋肉、及び骨)が見え、露出され、MR生徒デバイス12704を着用している生徒またはMR教師デバイス12702を着用している教師が操作できるようにしてよい。MR生徒デバイス12704は、指追跡及び手追跡を行って、仮想組織モデルに対する仮想切断または他の操作を示してよい。人間の肩の物理的モデルまたは仮想組織モデルが、肩の手術の教育に使用されてよく、同様に、人間の足首の物理的モデルまたは仮想組織モデルが、足首の手術の教育に使用されてよい。他のタイプの物理的モデルまたは仮想組織モデル(指、肘、膝、背中、首等)も、身体の他の部分に対する整形外科手術教育の促進に使用されてよい。
仮想要素が、物理的モデル、死体、または仮想組織モデルに対して提示される時、仮想要素が物理的モデル、死体、または仮想モデルの要素に一致するのを確実にすることが望ましい。従って、物理的モデル、死体、または仮想組織モデルの実際の物理的寸法を知ることが望ましく、物理的寸法は、スキャンまたは撮像によって取得されてよい。従って、物理的モデルのスキャンまたは画像に基づいて生成または規定された仮想要素を有することが望ましい。これによって、仮想要素が物理的モデル、死体、または仮想モデルに一致し、それらへ適切に位置合わせできることを確実にし得る。また、教師環境において、物理的モデルに一致する対応する仮想要素を有する多くの同一の物理的モデルを有することは有用であり得る。この場合、異なる生徒は、同一の物理的モデルの解剖学的構造に基づいて正確に規定された仮想要素及び仮想ガイダンスの支援を受けて、別々の同一の物理的モデルに対して実際の操作を行ってよい。
いくつかの例では、システムは、解剖学的要素の複数の物理的モデルであって、複数の物理的モデルは、実質的に同一である、複数の物理的モデル、及び可視化デバイスによって実行されると、物理的モデルの1つに対して解剖学的整形外科手術に関連付けられた仮想要素を可視化デバイスに提示させる命令を含むコンピュータ可読媒体であって、仮想要素は、サイズ及び形状が物理的モデルにおいて実質的に同一の解剖学的要素の仮想表現を含む、コンピュータ可読媒体を含む。
いくつかの例では、システムは、異なる生徒または教師によって複合現実の支援で物理的に使用される複数の物理的モデルを含んでよい。例えば、システムは、解剖学的要素の複数の物理的モデルを含んでよく、複数の物理的モデルは、実質的に同一である。システムは、第1の複合現実提示を第1のユーザに表示するように構成された第1の可視化デバイスを含んでよく、ここで、第1の複合現実提示は、第1のユーザが第1のデバイスを着用している間、第1のユーザによって制御可能な1つまたは複数の第1の仮想要素を含み、1つまたは複数の第1の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の第1の3D仮想表現を含み、第1の3D仮想表現は、複数の物理的モデルの第1の物理的モデルに対して配置される。さらに、システムは、第2の複合現実提示を第2のユーザに表示するように構成された第2の可視化デバイスを含んでよく、ここで、第2の複合現実提示は、第2のユーザが第2のデバイスを着用している間、第2のユーザによって制御可能な1つまたは複数の第2の仮想要素を含み、1つまたは複数の第2の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の第2の3D仮想表現を含み、第2の3D仮想表現は、複数の物理的モデルの第2の物理的モデルに対して配置される。この例では、第1及び第2の可視化デバイスは、生徒または教師によって使用されてよく、各ユーザ(生徒及び/または教師)は、自身の物理的モデルと、自身の物理的モデルに関して示される自身の複合現実提示とを有してよい。いくつかの例では、物理的モデルは、実際の患者または死体の解剖学的要素の画像またはセグメント化に基づいて作成されてよい。この場合、物理的モデルは、複数の同一の3Dモデルを生成するように3D印刷されてよく、仮想要素は、実際の患者または死体の解剖学的要素の同じ画像またはセグメント化に基づいて規定することができる。生徒及び教師は、(実際の患者または死体の解剖学的構造の3D表現である)自身の物理的モデルに対してトライアル手術ステップを行うことができ、複合現実の仮想要素または仮想モデルは、生徒及び教師が着用している可視化デバイスによって異なる物理的モデルに対して提示することができる。
これらのまたは他の例では、MR教育コンテンツ12706は、様々な肩の手術手順(例えば、解剖学的または逆肩関節形成術等)のいずれか、または様々な足首の手術手順(例えば、足関節形成術等)のいずれか等、整形外科的関節修復処置のステップの行い方に関して、医師を訓練するために有用であり得る。従って、これらの例においては、MR生徒デバイス12704を着用する生徒は、典型的に外科医であってよいが、他の生徒もMRベースの教育から恩恵を受けることができる。
他の例では、MR教育コンテンツ12706は、仮想モデルを患者の実際の解剖学的特徴、物理的な骨もしくは軟組織モデル、または死体の特徴へ位置合わせする位置合わせプロセスを示す仮想コンテンツを含んでよい。例えば、MR教師デバイス12702及びMR生徒デバイス12704は、仮想モデルを実際の解剖学的特徴へ位置合わせする登録プロセス、例えば、関節窩の仮想モデルを、それぞれ、死体もしくは合成骨モデル等からの実際の関節窩もしくは物理的モデルへ位置合わせする位置合わせプロセスを行うように構成されてよい。この場合、MR教師デバイス12702を着用している教師は、医療デバイス技師を含んでよい。仮想モデルを実際の関節窩モデルまたは物理的モデルに位置合わせするために、教師は、仮想モデルを患者の実際の解剖学的特徴へ位置合わせするための本開示の他の箇所により詳細に記載する「設定(SET)」「マッチ(MATCH)」及び「リセット(RESET)」の位置合わせステップに関して、MR生徒デバイス12704を着用している生徒(例えば、外科医)に指導してよい。
さらに他の例では、MR教育コンテンツ12706は、例えば、リーミングされた骨の仮想モデルをインプラントの仮想モデルと比較して、リーミングされた骨の仮想モデルがインプラントを適切に受ける形状になっているかどうかを見るための仮想トライアル情報を含んでよい。言い換えると、MR教育コンテンツ12706は、仮想インプラントが仮想のリーミングされた関節窩骨、物理的モデル、または死体の骨に適合するかどうかを見るために、3D仮想モデル(例えば、仮想関節窩)に対して、または、関節窩の物理的モデルもしくは死体に対して配置することができるインプラントコンポーネントの仮想モデルの形態の仮想要素を含んでよい。この場合、MR教師デバイス12702を着用している教師は、MR生徒デバイス12704を着用している生徒にリーミングプロセスに関して指導してよい。いくつかの場合には、生徒は、リーミングされた骨の仮想モデルに対する仮想インプラントを見てよい。他の場合には、生徒は、例えば、MR生徒デバイス12704を介して提供される仮想術中ガイダンスを用いて、死体の関節窩骨またはモデルの関節窩骨に対して実際にリーミングプロセスを行ってよく、次に、MR生徒デバイス12704及びMR教師デバイス12702は、インプラントの仮想モデルを提示することができる。生徒または教師は次に、リーミングされた骨またはリーミングされたモデルに対するインプラントの仮想モデルの位置を操作して、インプラントが適切に適合しているかどうかを見ることができる。このプロセスは、整形外科手術タスクの一例として、肩の手術のリーミングプロセスに関して、生徒に有用な訓練を提供することができ、この例では、生徒は、医学生、外科医、または、手術の訓練を受けている任意の人を含んでよい。類似の訓練は、足首手術、または他の相対的に複雑な整形外科手術に対しても使用されて、生徒がMRによってガイドされる手術または手術のステップを死体の距骨及び/または脛骨に対して実践するのを可能にし得る。
他の例では、MR教育コンテンツ12706は、本開示の他の箇所により詳細に記載するような深さ支援要素の位置合わせプロセスを支援する情報を含んでよい。例えば、本開示の他の箇所に詳述するように、深さ支援要素が、リーミング要素、ドリル要素、または他のツールビット等、ツールビットの深さ計算を支援するために使用されてよい。例えば、図80~図82を参照して示し説明した位置合わせプロセスは、位置合わせプロセスの実行の仕方を生徒(例えば、外科医)に訓練するために、MR生徒デバイス12704及びMR教師デバイス12702によって実施されてよい。場合によっては、MR教師デバイス12702を着用している教師は、深さ支援要素に対する位置合わせプロセスの実行の仕方を外科医に訓練し得る医療デバイス技師を含んでよい。
他の例では、MR教育コンテンツ12706は、手術用ツールもしくはインプラントコンポーネントの選択、または整形外科手術で使用するツールもしくはインプラントコンポーネントを識別する仮想要素等の仮想支援に関する仮想情報を含んでよい。実際に、本開示は、看護師または他の手術参加者のツール選択を支援するために、可視化デバイスが提示することができる仮想要素の多くの例を記載する。このような技術及びツールは、教育システム12701でも有用であり得る。このような場合では、MR生徒デバイス12704は、看護師または医療助手が着用してよく、MR教師デバイス12702は、手術及びツール選択に関して看護師を訓練している人が着用してよい。MR生徒デバイス12704及びMR教師デバイス12702は、看護師の訓練にMR可視化を提示してよく、そのMR可視化は、本開示の他の箇所に記載される、実際の手術で看護師が使用するものと類似している。看護師のツール選択訓練を含む手術手順に関する教育訓練は、手術手順の向上を支援し得る。
いくつかの例では、MR教育コンテンツ12706は、手術計画に関してよく、インプラントのコンポーネント、サイズ、位置、角度、リーミング軸、リーミング輪郭、切断面、または他の特徴を含んでよく、それによって、生徒は、(例えば、解剖学的または逆肩関節形成等、異なる手術の)関節窩リーミング、上腕骨の切断を伴う特定のインプラントの配置、及び、選択されたサイズ、位置、角度での上腕骨インプラントの配置を可視化することができる。MR生徒デバイス12704を着用する生徒は、特定のタイプの問題を有する特定の仮想の肩モデルに対して手術手順を計画することを練習してよく、MR教師デバイス12702を着用している教師は、異なる肩の問題、異なる肩分類、及び/または異なるタイプの手術計画を表す複数の異なる肩モデルに関して生徒を訓練してよい。
他の例では、MR教育コンテンツ12706は、閉ループ制御を含む自動ツールの使用に関する仮想訓練情報または仮想視覚支援を含んでよい。例えば、ツールの使用に基づいてツールを自動的に有効または無効にできる整形外科手術で使用される自動ツールを本明細書に記載した。一例として、ツールがツールの機能の実行を終えると自動的に停止にされ得る閉ループ制御ツールを記載した(所望のリーミング深さに達すると無効にされるリーマ等)。このようなツールの使用に関する教育訓練は、外科医にとって役立ち得る。従って、いくつかの例では、MR生徒デバイス12704及びMR教師デバイス12702は、ツール使用、ならびにツールがその機能を完了するとツールを停止することを図示またはデモンストレーションする仮想要素を提示してよい。
さらに他の例では、MR教育コンテンツ12706は、MR生徒デバイス12704及びMR教師デバイス12702によって提示される、ステップバイステップのワークフローまたはチェックリスト等、MR手術ワークフローガイダンス情報を含んでよい。MR生徒デバイス12704を着用している生徒は、MR教師デバイス12702を着用している外科医が手順を行っているとして提示される仮想ワークフローを見てよい。例えば、MR生徒デバイス12702は、仮想チェックリスト項目を含むMR可視化を生成してよい。場合によっては、MR生徒デバイス12704を着用する生徒に提示される仮想ワークフローは、MR教師デバイス12702を着用している外科医に提示される仮想ワークフローと異なって(場合によっては、よりはっきり見えて)よい。これによって、生徒は、手術が行われている時に手術に関してより十分に情報を得て、教育を受けることが可能になり得る。この例では、生徒は、他の外科医(すなわち、教師である外科医)が訓練している医学生、または、場合によっては外科医(すなわち、生徒である外科医)であってよい。
他の例では、MR教育コンテンツ12706は、可動域に関する仮想情報を含んでよい。この場合、MR教師デバイス12702を着用している医師または外科医は、肩の手術等、整形外科手術に関連付けられた可動域情報の仮想デモンストレーションを見せることによって、MR生徒デバイス12704を着用している患者を教育してよい。また、可動域情報を含むMR教育コンテンツ12706はまた、手術ステップに関連付けられた可動域の影響に関して外科医、医学生、または他の人を訓練するのに有用であり得る。例えば、MR教育コンテンツ12706は、特定のインプラントの埋め込みに関連する可動域(または、可動域の損失)を示す可動域情報を含んでよい。例えば、不正確なサイズまたは位置のインプラントが患者に埋め込まれた場合、これは、可動域に対してマイナスの結果を有し得る。MR教師デバイス12702及びMR生徒デバイス12704は、特定のインプラントに関連付けられた起こり得る可動域の結果を示す可動域の可視化を提示してよい。この場合、例えば、MR教育コンテンツ12706は、所望の可動域にわたって起こり得るインピンジメント点を仮想で示す可動域情報または可動域デモンストレーションを含んでよい。ここで、インピンジメントは、不正確なサイズまたは位置のインプラントによって引き起こされ得る。場合によっては、MR教育コンテンツ12706は、患者へのインプラント配置によって起こり得るインピンジメント点の仮想マーカを含んでよい。
さらに他の例において、MR教育コンテンツ12706は、例えば、任意の所与のインプラント埋め込みまたはインプラント埋め込み手順に関連する所望の結果または問題を示し得る仮想術前アニメーションを含んでよい。例えば、MR教師デバイス12702及びMR生徒デバイス12704は、不正確なサイズのインプラントの埋め込みに関連する起こり得るインピンジメントを示す仮想アニメーションを提示してよい。同様に、MR教師デバイス12702及びMR生徒デバイス12704は、正確なサイズのインプラントの埋め込みに関連する所望の結果を示す仮想アニメーションを提示してよい。場合によっては、MR教師デバイス12702及びMR生徒デバイス12704は、特定のインプラントまたは特定のインプラント埋め込み手順に関連する影響(例えば、所望の結果、または望ましくないインピンジメントもしくは可動域の減少)をデモンストレーションまたは示す即時仮想フィードバックを教師及び生徒に提示してよい。
図127の教育システム12701は、整形外科手術の少なくとも1つの側面をデモンストレーションできるシステムの一例である。第1のデバイス(例えば、MR教師デバイス12702)は、第1のユーザ(すなわち、教師)への提示を表示するように構成することができ、その提示は、第1のユーザが第1のデバイスを着用している間、第1のユーザによって制御可能な1つまたは複数の仮想要素を含み、1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む。第2のデバイス(例えば、MR生徒デバイス12704)もまた、第2のユーザへの提示を表示するように構成されてよく、1つまたは複数の仮想要素は、整形外科手術の少なくとも1つの側面をデモンストレーションするように、3D仮想表現に対する1つまたは複数の仮想術前計画要素、3D仮想表現に対する1つまたは複数の仮想手術ガイダンス機能、3D仮想表現上に仮想で示された1つまたは複数の手術結果をさらに含む。整形外科手術の少なくとも1つの側面をデモンストレーションすることは、例えば、整形外科手術の少なくとも1つの側面をデモンストレーションするように、3D仮想表現に対する仮想術前計画要素を提示すること、3D仮想表現に対する1つまたは複数の仮想手術ガイダンス機能を提示すること、及び/または、3D仮想表現上に仮想で示された1つまたは複数の手術結果を提示することを含んでよい。
第1のユーザが第1のデバイスを着用している間、第1のユーザによって制御可能であり、第2のユーザが第2のデバイスを着用している間、第2のユーザが見ることができる1つまたは複数の仮想要素は、整形外科手術に関する教育を容易にし得る。MR教育コンテンツ12706は、第1のユーザが第1のデバイス(例えば、MR教師デバイス12702)を着用している間、第1のユーザによって制御可能であり、第2のユーザが第2のデバイス(例えば、MR生徒デバイス12704)を着用している間、第2のユーザが見ることができる1つまたは複数の仮想要素を含んでよい。1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含んでよい。いくつかの例では、1つまたは複数の仮想要素は、3D仮想表現に対する仮想切断軸を示してよい。いくつかの例では、1つまたは複数の仮想要素は、3D仮想表現に対する仮想リーミング軸を示してよい。いくつかの例では、1つまたは複数の仮想要素は、3D仮想表現に対する仮想ドリル軸を示してよい。いくつかの例では、1つまたは複数の仮想要素は、3D仮想表現に対する仮想ジグまたはガイドの配置を示してよい。いくつかの例では、1つまたは複数の仮想要素は、仮想ジグまたはガイドに対する仮想軸を示してよい。いくつかの例では、1つまたは複数の仮想要素は、3D仮想表現に対して提示される手術ガイダンス情報を含んでよい。いくつかの例では、1つまたは複数の仮想要素は、3D仮想表現を物理的モデルまたは死体の対応する特徴へ位置合わせする位置合わせプロセスを示してよい。いくつかの例では、1つまたは複数の仮想要素は、インプラントコンポーネントの準備された埋め込み箇所に関連付けられたトライアル情報を含んでよい。いくつかの例では、1つまたは複数の仮想要素は、深さ支援要素を位置合わせする位置合わせプロセスを示してよい。いくつかの例では、1つまたは複数の仮想要素は、閉ループ制御を含む自動ツールの使用に関する仮想訓練情報または仮想視覚支援を含んでよい。いくつかの例では、1つまたは複数の仮想要素は、可動域に関する仮想情報を含んでよい。いくつかの例では、1つまたは複数の仮想要素は、仮想術前アニメーションを含んでよい。いくつかの例では、1つまたは複数の仮想要素は、3D仮想表現に対する1つまたは複数の仮想インプラントコンポーネントを示してよい。
図128は、MR教師デバイス12802と、複数のMR生徒デバイス12804A及び12804B~12804N(集合的に、生徒デバイス12804)とを含む教育システム12801の概念ブロック図である。MR教師デバイス12802及びMR生徒デバイス12804はそれぞれ、可視化デバイス213を含んでよく、これについては、本開示を通して詳細に記載する。MR教師デバイス12802は、整形外科手術教育のMR教育コンテンツ12806を教師に提示してよい。同様に、MR生徒デバイス12804は、整形外科手術教育の類似のMR教育コンテンツ12806を生徒に提示してよい。MR教育コンテンツ12806は、MR教師デバイス12802を着用している教師の指導とともに、MR生徒デバイス12804を着用している生徒の教育を支援し得る。
MR教育コンテンツ12806は、図127に示し、記載したMR教育コンテンツ12706と類似または同じコンテンツを含んでよい。さらに、MR教育コンテンツ12806は、手術ガイダンス、手術計画、術後分析、または他の理由のために使用されてよい本開示の他の箇所に開示したMRコンテンツのいずれをも含んでよい。実際、MR教育コンテンツ12806は、本明細書に記載の多種多様なMRコンテンツのいずれをも含んでよい。場合によっては、MR生徒デバイス12804及び/またはMR教師デバイス12802は、仮想要素をユーザに提示する可視化デバイスとタッチベースの情報をユーザに提供する触覚デバイスの両方を含んでよい。
他の例と同様、任意の所与の教育的設定で使用される実際のMRコンテンツは、しかしながら、教育される生徒に応じて決められ得る。例えば、教育システム12801は、医師、医学生、技師、看護師、医師助手、または整形外科医療処置に関与し得る任意の他の人(患者、介護者、保護者、家族またはその他の人等)を教育または訓練するために使用されてよい。あるいは、教育システム12801は、患者に対して行う処置に関して患者、家族及び友人を教育するために使用されてよい。さらに他の場合では、教育システム12801は、研究者、または整形外科手術に関して1つまたは複数の詳細を学ぶことに関心または理由を有し得る任意の他の人を教育するために使用されてよい。図128によると、MR生徒デバイス12804に関連付けられた複数の生徒が、MR教師デバイス12802を使用する教師の授業から恩恵を受け得る。
図128の教育システム12801は、整形外科手術の少なくとも1つの側面をデモンストレーションできるシステムの別の例である。第1のデバイス(例えば、MR教師デバイス12802)は、第1のユーザ (すなわち、教師)に対する提示を表示するように構成することができ、ここで、提示は、第1のユーザが第1のデバイスを着用している間、第1のユーザが制御可能な1つまたは複数の仮想要素を含み、1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む。第2のデバイス(例えば、MR生徒デバイス12804の1つ)はまた、第2のユーザに提示を表示するように構成されてよい。1つまたは複数の仮想要素は、整形外科手術の少なくとも1つの側面をデモンストレーションするように、3D仮想表現に対する1つまたは複数の仮想術前計画要素、3D仮想表現に対する1つまたは複数の仮想手術ガイダンス機能、または、3D仮想表現上に仮想で示された1つまたは複数の手術結果をさらに含んでよい。
肩の手術の教育の例について、MR教育コンテンツ12806の一部を形成する1つまたは複数の解剖学的特徴の仮想表現は、人間の肩の3D仮想モデルを含んでよい。別の例として、MR教育コンテンツ12806の一部を形成する1つまたは複数の解剖学的特徴の仮想表現は、上腕骨頭の3D仮想図または関節窩の3D仮想図を含んでよい。しかしながら、他のタイプの整形外科手術の教育の例については、解剖学的特徴の異なるタイプの仮想3Dモデルが、MR教育コンテンツ12806で提示されてよい。例えば、足首の手術の教育は、人間の足首の3D仮想図、または距骨及び/または脛骨の3D仮想図の提示を伴ってよい。
第1のユーザが第1のデバイスを着用している間、第1のユーザによって制御可能であり、第2のユーザが第2のデバイスを着用している間、第2のユーザが見ることができる1つまたは複数の仮想要素は、整形外科手術に関する教育を容易にし得る。MR教育コンテンツ12806は、第1のユーザが第1のデバイス(例えば、MR教師デバイス12802)を着用している間、第1のユーザによって制御可能であり、第2のユーザが第2のデバイス(例えば、MR生徒デバイス12804の1つ)を着用している間、第2のユーザが見ることができる1つまたは複数の仮想要素を含んでよい。1つまたは複数の仮想要素は、図127のMR教育コンテンツ12706に関して前述した仮想要素(または、前述した仮想要素の組み合わせ)のいずれかを含んでよい。
図129は、教育システム12901の概念ブロック図である。教育システム12901は、MR/VR生徒デバイス12904を含み、MR/VR生徒デバイス12904はそれぞれ、本開示を通して詳細に記載する可視化デバイス213等の複合現実デバイス、または、現実世界ビューを提示せずに仮想情報のみを提示する仮想現実デバイスを含んでよい。MR/VR生徒デバイス12904は、整形外科手術教育のMR/VR(複合現実または仮想現実)教育コンテンツ12906を生徒に提示してよい。この例では、しかしながら、MR/VR教育コンテンツ12906は、アバタ教師12902を含む。
図129の例では、MR/VR教育コンテンツは、事前に記録されたアバタ教師12902が提示する事前に記録されたコンテンツを含んでよい。MR生徒デバイス12904のユーザは、メニューまたはリストからコンテンツを選択してよく、MR生徒デバイス12904を介してコンテンツを見てよい。場合によっては、MR生徒デバイス12904は、仮想要素をユーザに提示する可視化デバイスとタッチベースの情報をユーザに提供する触覚デバイスとを含んでよい。
図127のMR教育コンテンツ12706及び図128のMR教育コンテンツ12806同様、図129に示すMR/VR教育コンテンツ12906は、本開示の他の箇所に開示の仮想コンテンツのいずれをも含んでよい。例えば、MR/VR教育コンテンツ12906は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む1つまたは複数の仮想要素等、本明細書に記載の多種多様なコンテンツのいずれをも含んでよい。3D仮想表現(例えば、人間の肩の仮想モデル、関節窩表面もしくは関節窩の仮想モデル、または、上腕骨もしくは上腕骨頭の仮想モデル)に加えて、MR/VR教育コンテンツ12906は、追加の仮想コンテンツを含んでよい。この追加の仮想コンテンツは、図127のMR教育コンテンツ12706に関して前述した仮想コンテンツまたは仮想要素(またはこのような仮想要素の組み合わせ)のいずれかを含んでよい。
他の例と同様、任意の所与の教育的環境で使用される実際のコンテンツは、しかしながら、教育される生徒に応じて決められ得る。例えば、教育システム12901は、医師、医学生、技師、看護師、医師助手、または整形外科医療処置に関与し得る任意の他の人(患者、介護者、保護者、家族またはその他の人等)を教育または訓練するために使用されてよい。多くの場合、しかしながら、教育システム12901は、患者に対して行われる手術に関して患者、家族及び友人を教育するのに有用であり得る。例えば、MR/VR教育コンテンツ12906は、MR/VR生徒デバイス12904を着用しているユーザがアクセス可能なサーバに記憶された仮想情報を含んでよい。予め記録された整形外科手術コンテンツは、患者、患者の家族及び友人等、専門家でないユーザを教育するのに特に有用であり得る。
図130は、リモート教師環境に有用であり得る教育システム13001の概念ブロック図である。図130に示す例においては、教師は、生徒に対してリモートにいてよく、教師は、仮想現実デバイスを含み得るVR教師デバイス13002を着用してよい。生徒は、MR/VR生徒デバイス13004A及び13004B~13004N(集合的に、MR/VR生徒デバイス13004)を介して教師と対話してよい。
MR/VR生徒デバイス13004はそれぞれ、本開示を通して詳細に記載している可視化デバイス213等の複合現実デバイス、または仮想情報のみを提示し、現実世界ビューを提示しない仮想現実デバイスを含んでよい。MR/VR生徒デバイス13004は、整形外科手術教育のMR/VR(複合現実または仮想現実)教育コンテンツ13006を各生徒に提示してよい。図127のMR教育コンテンツ12706、図128のMR教育コンテンツ12806、及び図128のMR/VR教育コンテンツ12906同様、図130のMR/VR教育コンテンツ13006は、本開示の他の箇所に開示の仮想コンテンツのいずれをも含んでよい。場合によっては, MR/VR生徒デバイス13004及び/またはVR教師デバイス13002は、仮想要素をユーザに提示する可視化デバイスと、タッチベースの情報を同じユーザに提供する触覚デバイスの両方を含んでよい。
整形外科手術教育のMR/VR教育コンテンツ13006は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含んでよい。3D仮想表現(例えば、人間の肩の仮想モデル、関節窩表面もしくは関節窩の仮想モデル、または、上腕骨もしくは上腕骨頭の仮想モデル)に加えて、MR/VR教育コンテンツ13006は、追加の仮想コンテンツを含んでよい。この追加の仮想コンテンツは、図127のMR教育コンテンツ12706に関して前述した仮想要素(または、前述した仮想要素の組み合わせ)のいずれか等、1つまたは複数の追加の仮想要素を含んでよい。
他の例と同様、任意の所与の教育的環境で使用される実際のコンテンツは、しかしながら、教育される生徒に応じて決められ得る。例えば、教育システム13001は、医師、医学生、技師、看護師、医師助手、または整形外科医療処置に関与し得る任意の他の人(患者、介護者、保護者、家族またはその他の人等)を教育または訓練するために使用されてよい。さらに、仮想現実(例えば、VR教師デバイス13002)の使用は、生徒に対して教師がリモートにいるのを可能にし得る。この例では、生徒は、複合現実または仮想現実(例えば、MR/VR生徒デバイス13004)のいずれかを使用して、VR教師デバイス13002を着用している教師と対話してよく、MR/VR教育コンテンツ13006を見てよい。MR/VR教育コンテンツ13006は、教師によって、選択、提示、または他の方法で生徒に割り当てられてよい。
図130の教育システム13001は、整形外科手術の少なくとも1つの側面をデモンストレーションできるシステムの別の例である。第1のデバイス(例えば、VR教師デバイス13002)は、第1のユーザ(すなわち、教師)に提示を表示するように構成することができ、ここで、提示は、第1のデバイスを着用している第1のユーザによって制御可能な1つまたは複数の仮想要素を含み、1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む。第2のデバイス(例えば、MR/VR生徒デバイス13004の1つ)はまた、第2のユーザに提示を表示するように構成されてよい。1つまたは複数の仮想要素は、整形外科手術手順の少なくとも1つの側面をデモンストレーションするように、3D仮想表現に対して示される1つまたは複数の仮想術前計画要素、3D仮想表現に対して示される1つまたは複数の仮想手術ガイダンス機能、または3D仮想表現上に仮想で示された1つまたは複数の手術結果をさらに含んでよい。
第1のデバイスを着用している第1のユーザによって制御可能で、第2のデバイスを着用している第2のユーザが見ることができる1つまたは複数の仮想要素は、整形外科手術手順に関する教育を容易にし得る。例えば、MR/VR教育コンテンツ13006は、本明細書に記載の広範なコンテンツのいずれをも含んでよく、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含んでよい。3D仮想表現(例えば、人間の肩の仮想モデル、関節窩表面もしくは関節窩の仮想モデル、または、上腕骨もしくは上腕骨頭の仮想モデル)に加えて、MR/VR教育コンテンツ13006は、追加の仮想コンテンツを含んでよい。この追加の仮想コンテンツは、図127のMR教育コンテンツ12706に関して記載される仮想要素(または、組み合わせ)のいずれをも含んでよい。
図131は、リモート教師環境に使用し得る教育システム、例えば、教育システム13101の別の概念ブロック図である。この例では、教師は、MR教師デバイス13102を着用して、MR/VR教育コンテンツ13106を様々な生徒に提示してよい。第1の生徒は、本開示を通して詳細に記載している可視化デバイス213等、MR生徒デバイス13104Aを着用してよい。第1の生徒及び教師は、物理的に同じ部屋にいて、MR体験の共有を容易にしてよい。第2の生徒は、しかしながら、教師に対してリモートに位置してよく、VR生徒デバイス13104Bを着用して、授業練習に参加してよい。VR生徒デバイス13104Bは、現実世界ビューを提示せず、仮想情報のみを提示してよい。場合によっては、教師及び他の生徒(例えば、MR教師デバイス13102を着用している教師、及びMR生徒デバイス13104Aを着用している第1の生徒)は、VR生徒デバイス13104BのVR提示にアバタとして提示されてよく、VR生徒デバイス13104Bに関連付けられた生徒はリモートに位置しているが、生徒及び教師が全て同じ部屋にいる感覚を与える。同様に、第2の生徒も、MR教師デバイス13102を着用している教師及びMR生徒デバイス13104Aを着用している第1の生徒にアバタとして提示されてよい。図131はまた、MR/VR生徒デバイスN(13104N)を示し、任意の数のMRまたはVR参加者が教育セッションに存在してよいことを一般的に示す。場合によっては、MRデバイスは、互いにリモートにいる参加者によって使用されてよく、その場合、ユーザは、同じ現実世界ビューを共有することなく、仮想要素のビューを共有してよい。
図127、図128、図129及び図130の例と同様、図131の例では、MR/VR教育コンテンツ13106は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む1つまたは複数の仮想要素等、本開示の他の箇所に開示の仮想コンテンツのいずれをも含んでよい。3D仮想表現(例えば、人間の肩の仮想モデル、関節窩表面もしくは関節窩の仮想モデル、または、上腕骨もしくは上腕骨頭の仮想モデル)に加えて、MR/VR教育コンテンツ13006は、追加の仮想コンテンツを含んでよい。この追加の仮想コンテンツは、3D仮想表現に対して提示される1つまたは複数の仮想要素を含んでよく、図127のMR教育コンテンツ12706に関して上記の仮想要素(または、上記仮想要素の組み合わせ)のいずれをも含んでよい。また、場合によっては、生徒デバイス13104及び/またはMR教師デバイス13102は、仮想要素をユーザに提示する可視化デバイスとタッチベースの情報をユーザに提供する触覚デバイスの両方を含んでよい。
他の例と同様、任意の所与の教育的環境で使用される実際のコンテンツは、しかしながら、教育される生徒に応じて決められ得る。例えば、教育システム13101は、医師、医学生、技師、看護師、医師助手、または整形外科医療処置に関与し得る任意の他の人(患者、介護者、保護者、家族またはその他の人等)を教育または訓練するために使用されてよい。さらに、仮想現実(例えば、VR生徒デバイス13104B)の使用によって、この例では、MR教師デバイス13102を着用する教師に対して生徒の1人または複数がリモートにいることを可能にし得る。同時に、しかしながら、教師は、MR生徒デバイス13104Bを着用している生徒等、任意のローカルの生徒を見て、任意のローカルの生徒と対話できてよい。
図131の教育システム13101は、整形外科手術の少なくとも1つの側面をデモンストレーションすることができるシステムの別の例である。第1のデバイス(例えば、MR教師デバイス13102)は、第1のユーザ(すなわち、教師)に提示を表示するように構成することができる。ここで、提示は、第1のデバイスを着用している第1のユーザが制御可能な1つまたは複数の仮想要素を含み、1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む。第2のデバイス(例えば、MR生徒デバイス13104AまたはVR生徒デバイス13104B)もまた、第2のユーザに提示を表示するように構成されてよい。1つまたは複数の仮想要素は、整形外科手術の少なくとも1つの側面をデモンストレーションするように、3D仮想表現に対して示される1つまたは複数の仮想術前計画要素、3D仮想表現に対して示される1つまたは複数の仮想手術ガイダンス機能、または3D仮想表現上に仮想で示された1つまたは複数の手術結果をさらに含んでよい。
第1のデバイスを着用している第1のユーザによって制御可能で、第2のデバイスを着用している第2のユーザが見ることができる1つまたは複数の仮想要素は、整形外科手術に関する教育を容易にし得る。MR教育コンテンツ13106は、第1のデバイス(例えば、MR教師デバイス13102)を着用している第1のユーザが制御可能であり、第2のデバイス(例えば、MR生徒デバイス13104AまたはMR生徒デバイス13104B)を着用している第2のユーザが見ることができる1つまたは複数の仮想要素を含んでよい。
図132及び図133は、整形外科手術教育の複合現実及び仮想現実を使用する他の教育システム13201及び13301の概念ブロック図である。図132の例では、複数の教師が、MR/VR教師デバイス13202A及び13202B~13202N(集合的に、MR/VR教師デバイス13202)を着用する。さらに、図132の例では、複数の生徒が、MR/VR生徒デバイス13204A及び13204B~13204N(集合的に、MR/VR生徒デバイス13204)を着用する。この例では、参加者(教師または生徒)のいずれも、複合現実または仮想現実を使用して、授業セッションに参加してよい。言い換えると、MR/VR教師デバイス13202及びMR/VR生徒デバイス13204のいずれもが、可視化デバイス213等の複合現実デバイスを含んでよい、あるいは、MR/VR教師デバイス13202及びMR/VR生徒デバイス13204は、仮想情報のみを提示する仮想現実デバイスを含んでよい。この場合、複合現実デバイスを着用しているユーザに提示される現実世界情報は、仮想現実デバイスを着用しているユーザに仮想情報として提示されてよい。さらに、複合現実デバイスを着用しているMRユーザは、仮想現実デバイスを着用しているVRユーザにアバタとして提示されてよく、仮想現実デバイスを着用しているVRユーザは、複合現実デバイスを着用しているMRユーザにアバタとして提示されてよい。
図133の例は、図132の例に幾分、類似している。図133の例では、第1の教師は、MR教師デバイス13302Aを着用し、第2の教師は、VR教師デバイス13302Bを着用する。さらに、図133の例では、第1の生徒は、MR生徒デバイス13304Aを着用し、第2の生徒は、VR生徒デバイス13304Bを着用する。追加の教師または生徒も、MR/VR教師デバイスN(13302N)及びMR/VR生徒デバイスN(13304N)によって一般的に示されるように、複合現実または仮想現実を使用して参加していてよい。一般に、任意のMRデバイス(例えば、MR教師デバイス13302A及びMR生徒デバイス13304B)は、複合現実を使用し、任意のVRデバイス(例えば、VR教師デバイス13302BまたはVR生徒デバイス13304)は、仮想現実を使用する。
図133に示す例によると、複合現実デバイス(MR教師デバイス13302A及びMR生徒デバイス13304A等)を着用しているユーザが見る現実世界情報または物体は、仮想現実デバイス(VR教師デバイス13302B及びVR生徒デバイス13304B等)を着用しているユーザに仮想情報として提示されてよい。例えば、MR教師デバイス13302Aのユーザは、現実世界の物体(死体等)を見てよく、その現実世界の物体は、VRデバイス(VR教師デバイス13302B及びVR生徒デバイス13304B等)に仮想物体として提示されてよい。さらに、複合現実デバイスを着用しているMRユーザは、仮想現実デバイスを着用しているVRユーザにアバタとして提示されてよく、仮想現実デバイスを着用しているVRユーザは、複合現実デバイスを着用しているMRユーザにアバタとして提示されてよい。
図127、図128、図129、図130及び図131に示す他の例と同様、図132及び図133の例では、MR/VR教育コンテンツ13206または13306は、本開示の他の箇所に開示の仮想コンテンツのいずれをも含んでよい。例えば、MR/VR教育コンテンツ13206は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む1つまたは複数の仮想要素等、本明細書に記載の多種多様なコンテンツのいずれをも含んでよい。3D仮想表現(例えば、人間の肩の仮想モデル、関節窩表面もしくは関節窩の仮想モデル、または、上腕骨もしくは上腕骨頭の仮想モデル)に加えて、MR/VR教育コンテンツ13206は、追加の仮想コンテンツを含んでよい。この追加の仮想コンテンツは、図127のMR教育コンテンツ12706に関して前述された仮想要素(または、前述された仮想要素の組み合わせ)のいずれをも含んでよい。また、場合によっては、生徒デバイス13304、13404及び/または教師デバイス13302、13402はそれぞれ、仮想要素をユーザに提示する可視化デバイスと、タッチベースの情報をユーザに提供する触覚デバイスの両方を含んでよい。
ここでも、任意の所与の教育的環境で使用される実際のコンテンツは、しかしながら、教育される生徒に応じて決められ得る。例えば、教育システム13201または13301は、医師、医学生、技師、看護師、医師助手、または整形外科医療処置に関与し得る任意の他の人(患者、介護者、保護者、家族またはその他の人等)を教育または訓練するために使用されてよい。さらに、仮想現実(例えば、VR教師デバイス13302BまたはVR生徒デバイス13304B)の使用によって、生徒及び教師の1人または複数が互いに対してリモートにいるのを可能にし得る。同時に、複合現実(例えば、MR教師デバイス13302AまたはMR生徒デバイス13304A)の任意のユーザが、複合現実を使用して、他のローカル参加者を見ることができてよく、他のローカル参加者と対話できてよい。
図132の教育システム13201は、整形外科手術の少なくとも1つの側面をデモンストレーションできるシステムの別の例である。第1のデバイス(例えば、MR/VR教師デバイス13202の1つ)は、第1のユーザ(すなわち、教師)に提示を表示するように構成することができ、ここで、提示は、第1のデバイスを着用している第1のユーザによって制御可能な1つまたは複数の仮想要素を含み、1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む。第2のデバイス(例えば、MR/VR生徒デバイス13204の1つ)もまた、第2のユーザに提示を表示するように構成されてよい。1つまたは複数の仮想要素は、整形外科手術の少なくとも1つの側面をデモンストレーションするように、3D仮想表現に対して示される1つまたは複数の仮想術前計画要素、3D仮想表現に対して示される1つまたは複数の仮想手術ガイダンス機能、または、3D仮想表現上に仮想で示された1つまたは複数の手術結果をさらに含んでよい。
第1のデバイスを着用している第1のユーザによって制御可能で、第2のデバイスを着用している第2のユーザが見ることができる1つまたは複数の仮想要素は、整形外科手術に関する教育を容易にし得る。MR教育コンテンツ13206は、第1のデバイス(例えば、MR/VR教師デバイス13202の1つ)を着用している第1のユーザによって制御可能であり、第2のデバイス(例えば、MR/VR生徒デバイス13204の1つ)を着用している第2のユーザが見ることができる1つまたは複数の仮想要素を含んでよい。
図133の教育システム13301は、整形外科手術の少なくとも1つの側面をデモンストレーションできるシステムの別の例である。第1のデバイス(例えば、MR教師デバイス13302AまたはVR教師デバイス13302B)は、第1のユーザ(すなわち、教師)に提示を表示するように構成することができ、ここで、提示は、第1のデバイスを着用している第1のユーザが制御可能な1つまたは複数の仮想要素を含み、1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む。第2のデバイス(例えば、MR生徒デバイス13304AまたはVR生徒デバイス13304B)もまた、第2のユーザに提示を表示するように構成されてよい。1つまたは複数の仮想要素は、整形外科手術の少なくとも1つの側面をデモンストレーションするように、3D仮想表現に対して図示または例示される1つまたは複数の仮想術前計画要素、3D仮想表現に対して図示または例示される1つまたは複数の仮想手術ガイダンス機能、または3D仮想表現上に仮想で示された1つまたは複数の手術結果をさらに含んでよい。
第1のデバイスを着用している第1のユーザによって制御可能で、第2のデバイスを着用している第2のユーザが見ることができる1つまたは複数の仮想要素は、整形外科手術に関する教育を容易にし得る。MR教育コンテンツ13306は、第1のデバイス(例えば、MR教師デバイス13302AまたはVR教師デバイス13302B)を着用している第1のユーザによって制御可能であり、第2のデバイス(例えば、MR生徒デバイス13304AまたはVR生徒デバイス13304)を着用している第2のユーザが見ることができる1つまたは複数の仮想要素を含んでよい。様々な例において、1つまたは複数の仮想要素は、図127のMR教育コンテンツ12706に関して前述した仮想要素(または、前述した仮想要素の組み合わせ)のいずれをも含んでよい。
図134は、整形外科手術教育に複合現実及び/または仮想現実を使用する教育システム、例えば、教育システム13401の別の概念ブロック図である。図134の例では、教師は、MR/VR教師デバイス13402を着用し、複数の生徒が、MR/VR生徒デバイス13404A及び13404B~13404N(集合的に、MR/VR生徒デバイス13404)を着用する。この例では、参加者(教師または生徒)のいずれもが、複合現実または仮想現実を使用して、授業セッションに参加してよい。言い換えると、MR/VR教師デバイス13402及びMR/VR生徒デバイス13404のいずれもが、可視化デバイス213等の複合現実デバイスを含んでよい、あるいは、MR/VR教師デバイス13402及びMR/VR生徒デバイス13404は、仮想情報のみを提示する仮想現実デバイスを含んでよい。この場合、複合現実デバイスを着用しているユーザに提示される現実世界情報は、仮想現実デバイスを着用しているユーザに仮想情報として提示されてよく、仮想情報は、MRデバイスのユーザが見た現実世界の物体に基づいてよい。MR/VR教育コンテンツ13406は、図127~図133または本開示の他の箇所に記載する教育コンテンツのいずれか等、本開示の他の箇所に開示される仮想コンテンツのいずれをも含んでよい。さらに、図134に示す例では、MR/VR教育コンテンツ13406は、図134に教師モデル13408と生徒モデル13405A及び13405B~13405N(集合的に、生徒モデル13405と呼ばれる)として示される、生徒及び教師が使用及び操作する複数の様々な仮想モデルを含んでよい。生徒及び教師用の別々の仮想モデルは、仮想モデルの生徒及び教師用コピー(例えば、人間の肩の3D仮想モデルの生徒及び教師用コピー、人間の肩のセグメントの3D仮想モデルの生徒及び教師用コピー、上腕骨頭の3D仮想図の生徒及び教師用コピー、または、関節窩の3D仮想図の生徒及び教師用コピー)等、仮想コンテンツを含んでよい。さらに、仮想の生徒及び教師コンテンツは、このような仮想モデル13408及び13405に対して提示される追加の仮想要素を含んでよい。
教育システム13401は、整形外科手術の少なくとも1つの側面をデモンストレーションする時に有用であり得る。システム13401は、第1のユーザに提示を表示するように構成された第1のデバイス(例えば、MR/VR教師デバイス13402)を含んでよく、ここで、提示は、解剖学的要素の3D仮想図の形態の教師モデル13408を含み、教師モデル13408は、第1のデバイスを着用している第1のユーザ(すなわち、教師)によって制御可能である。システム13401は、第2のユーザ(例えば、生徒の1人)に提示を表示するように構成された第2のデバイス(例えば、MR/VR生徒デバイス13404の1つ)をさらに含んでよく、ここでも、提示は、解剖学的要素の追加の3D仮想図の形態の生徒モデル13405の1つであり、生徒モデル(モデル13405の1つ)は、第1のデバイスを着用している第2のユーザ(すなわち、生徒の1人)によって制御可能である。
解剖学的要素の3D仮想図に加えて、教師モデル13408は、整形外科手術の少なくとも1つの側面をデモンストレーションする追加の仮想要素(図127~図133に関して前述した仮想要素の1つまたは複数等)を含んでよい。さらに、生徒モデル13405A、13405Bまたは13405Nは、このような追加の仮想要素(図127~図133に関して前述した仮想要素の1つまたは複数のような)を同様に含んでよい。言い換えると、追加の仮想要素は、生徒モデル13405A、13405Bまたは13405N及び教師モデル13408に対して提示されてよく、このような仮想要素は、図127のMR教育コンテンツ12706に関して前述された仮想要素(または、前述された仮想要素の組み合わせ)、または、本開示の他の箇所に記載される仮想要素等、本開示の他の箇所に開示及び記載される仮想要素のいずれかを含んでよい。また、いくつかの例では、MR/VR生徒デバイス13404及び/またはMR/VR教師デバイス13402は、仮想要素をユーザに提示する可視化デバイスとタッチベースの情報をユーザに提供する触覚デバイスの両方を含んでよい。
異なる生徒に対する別個の仮想モデルの使用は、整形外科手術教育には非常に有用であり得る。いくつかの例では、教師モデル13408は、解剖学的特徴の仮想モデルを含んでよく、解剖学的特徴の仮想モデルは、実際の骨または軟組織モデル(骨の人工モデル、または死体の実際の骨等)へ位置合わせされてよい。同様に、いくつかの例では、生徒モデル13405は、解剖学的特徴の仮想モデルを含んでよく、解剖学的特徴の仮想モデルは、対応する物理的モデルまたは死体の骨へ位置合わせされてよい。他の例では、しかしながら、教師モデル13408及び生徒モデル13405は、物理的モデルも死体も必要無く、教育に使用されてよい。仮想モデルが実際の物理的モデルまたは死体へ位置合わせされている場合、典型的に、MRを使用して、実際の物理的モデルまたは死体を含む現実世界ビューと共に仮想要素(仮想モデル等)を組み合わせてよい。
MR/VR教師デバイス13402を着用している教師は、ガイダンス及び指示を生徒に提供するように教師モデル13409を操作してよい。生徒は次に、教師の例及び指導に基づいて生徒モデル13405を適切に操作するように試みてよい。MR/VR教師デバイス13402を着用している教師は、MR教師デバイス13402を介して各生徒モデル13405を見ることができる。MR生徒デバイス13404を着用している生徒は、そのデバイスに対応する生徒モデルを見ることができてよい(例えば、生徒デバイス1(13404A)は、生徒モデル13405Aを見ることができてよく、生徒デバイス2(13404B)は、生徒モデル13405Bを見ることができてよい)。いくつかの場合には、生徒デバイス13404は、他の生徒に関連付けられた生徒モデルを見ることができてよく、他の場合には、生徒デバイス13404は、他の生徒の生徒モデルを見ることができない場合がある。いずれの場合でも、教師及び生徒に仮想モデルの異なるコピーを使用することは、各生徒が対応する仮想コンテンツに対して自分で操作するのを可能にすることによって、整形外科手術教育に非常に有用となり得る。操作は、仮想3D要素の回転、サイズ変更、位置変更、または他の動き等、本明細書に記載の制御のいずれかを含んでよい。さらに、操作は、インプラントの選択、インプラントサイズ、手術タイプ、肩タイプ、肩分類、または他の選択等、手術計画選択を含んでよい。また、操作は、術前、術中、または術後のアニメーションを有効にすること、または無効にすることを含んでよい。任意のタイプの仮想コントロール、動き、または仮想選択は、仮想コンテンツの操作と見なされてよい。場合によっては、生徒及び/または教師は、教師モデル13408を生徒モデル13405の1つまたは複数と比較して、生徒が正確なステップを行っているかどうかを評価してよく、生徒コンテンツ13405の操作を訂正してよい。
MR/VR生徒デバイス13404は、ジェスチャ、注視ベースコントロール、音声入力、このような仮想コントロールの組み合わせ、または複合現実に有用な任意の制御技術等を介して、仮想コントロールを通して生徒の各生徒モデル13405を生徒が操作及び制御するのを可能にし得る。また、手動キーパッド入力、タッチスクリーン入力、ポインタコントロール、または他のタイプのコントロールを生徒が使用して、各生徒モデル13405を操作してよい。同様に、MR/VR教師デバイス13402は、生徒が教師モデル13408を操作及び制御するのを可能にし得る。
上記のように、教師モデル13408及び生徒モデル13405は、例示の関節窩骨または例示の上腕骨の仮想モデル等、解剖学的特徴の仮想モデルを含んでよい。さらに、教師モデル13408及び生徒コンテンツ13405は、解剖学的特徴に対して行われ得る手術ステップを支援するように設計された追加の仮想コンテンツを含んでよい。例えば、各コンテンツは、手術ガイダンス情報、位置合わせコンテンツ、仮想の軸、平面もしくはマーカ、仮想ジグ、手術用ツールに関する仮想ガイダンス、仮想インプラント、仮想ワークフロー情報、仮想可動域情報、仮想手術アニメーション、または他の仮想情報を含んでよい。MR/VR生徒デバイス13404を使用して、各生徒は、例えば、手術ステップの実行、手術準備、位置合わせ、ドリルによる穴開けもしくはリーミングのための軸設定、切断面の設定、仮想ジグの配置、ツールの選択、仮想インプラントの配置、仮想ワークフローの選択、選択が可動域に与える影響を見ること等、自分の各生徒モデルを操作することが可能にされてよい。MR/VR教師デバイス13402を着用している教師は、教師モデル13408に関する教示のための例を提供してよく、MR/VR生徒デバイス13404を着用している生徒は、教師が行ったステップを、生徒自身の各生徒コンテンツ(13405A、13405Bまたは13405N)を使用して、まねるように試みる。このような「実際に操作できる」訓練は、生徒を有効に組織し、スケジュールし、訓練するために非常に役立ち得る。モデル(ならびに、仮想可動域情報によって示される等の結果)は比較されて、教師モデル13408での教師の操作の効力及び有効性に対して各生徒モデル13405の生徒の操作の効力及び有効性を評価することができる。
図134に示す生徒モデル及び教師モデルはまた、手術計画と、手術決定もしくは選択に焦点を当てた教育設定で非常に有用であり得る。異なる生徒は、手術タイプ(例えば、解剖学的関節形成か逆肩関節形成か)を選択してよい、または、異なるサイズの手術用ツール、または異なるサイズの外科用インプラントの間で選択を行ってよい。教師は、教師モデル13402を使用して、教示ガイダンスと指導を行ってよく、生徒の選択と結果は、生徒モデル13405を観察及び批評することによって、教師が評価することができる。
図148は、仮想教師モデルと複数の生徒モデルを示す概念図であり、いくつかの例では図134に示す教師モデル及び生徒モデルに対応し得る。ここでも、図148は、肩モデルの例を示すが、類似の教育技術が、足首等、他の関節に使用されてよく、この場合、教師及び生徒が使用するモデルは、足首、または足首の一部の3D仮想モデルとなる。図148に示すように、MRまたはVRデバイスを使用して、教師は、ジェスチャ、注視ベースコントロール、音声入力、または複合現実もしくは仮想現実で有用な任意の制御技術を介して等、仮想コントロールを通して教師モデル14801を見て、操作することができる。また、手動キーパッド入力、タッチスクリーン入力、ポインタコントロール、任意の仮想制御機構の組み合わせ、または他のタイプのコントロールを教師が使用して、教師モデル14801を操作してよい。MRまたはVRデバイスを使用して、例えば、教師は、教師モデル14801を空間で、回転、サイズ変更、位置変更、または他の方法で動かしてよい。さらに、教師は、肩関節窩内での骨の解剖学的動きを見せてよい。例示の教師モデル14801は、肩のインプラントコンポーネント14803の仮想3D表現を示す仮想要素と、肩のインプラントコンポーネント14803によって引き起こされる可能性の高いインピンジメント点14805を示す仮想要素と併せて、肩の3Dモデルを含む。教師は、仮想上腕骨を関節窩に対して回転させて、肩の動きを見せることができてよい。教師はまた、セグメント化されてよい異なる図示の要素のビューを有効または無効のすることができてよい。図148は、インプラントを有する肩の図の形態でモデルを示すが、任意のタイプの解剖学的要素、仮想手術計画、または仮想結果が、整形外科手術に関する教育を達成するために、本開示による教師モデル及び生徒モデルとして提示されてよい。
教師モデル14801を操作及び制御する教師の能力と同じように、MRまたはVRデバイスを使用して、生徒は、仮想コントロール、ジェスチャ、注視ベースコントロール、音声入力、手動キーパッド入力、タッチスクリーン入力、ポインタコントロール、このような仮想コントロールの組み合わせ、または複合現実または仮想現実で有用な任意の制御技術を介して、生徒モデル14802A、14802B及び14802N(集合的に、生徒モデル14802)を操作することができる。教師と同じように、例えば、生徒は、生徒モデル14802を空間で、回転、サイズ変更、位置変更、または他の方法で動かしてよい。さらに、生徒は、生徒モデル14802の異なるコンポーネントまたはセグメント化のビューを有効または無効にしてよい、肩を動かしてよい、インプラント14804A、14204B及び14204Nのビューを有効または無効にしてよい、他のインプラントを提示してよい、インピンジメント14806A、14806B及び14806Nのビューを有効または無効にしてよい、または、他の方法で生徒モデル14802を操作してよい。ここでも、図148に示すモデルは、例示の教師モデル14801及び生徒モデル14802を形成するいくつかの特定の仮想要素である。本開示は、本開示を通して記載する3Dモデルのいずれかを含むが、それらに限らない整形外科手術教育に有用であり得る広範な3Dモデルを企図する。図134及び図148によると、教師及び生徒の異なるモデルの提示及び使用は、整形外科手術、整形外科手術計画、及び、予測される結果に関して生徒を教育するのに非常に有用であり得る。
図135は、整形外科手術教育の複合現実及び/または仮想現実を使用する教育システム、例えば、教育システム13501の別の概念ブロック図である。図135の例では、教師は、MR/VR教師デバイス13502を着用し、複数の生徒は、MR/VR生徒デバイス13504A及び13405B~13405N(集合的に、MR/VR生徒デバイス13504)を着用する。この例では、参加者(教師または生徒)のいずれも、複合現実または仮想現実を使用して、授業セッションに参加してよい。言い換えると、MR/VR教師デバイス13502及びMR/VR生徒デバイス13504のいずれもが、可視化デバイス213等の複合現実デバイスを含んでよい、あるいは、MR/VR教師デバイス13502及びMR/VR生徒デバイス13504は、仮想情報のみを提示する仮想現実デバイスを含んでよく、この場合、複合現実デバイスを着用しているユーザに提示される現実世界情報は、仮想現実デバイスを着用しているユーザに仮想情報として提示されてよい。MR/VR教育コンテンツ13506は、図127~図133に関して、または本開示の他の箇所に記載される教育コンテンツのいずれか等、本開示の他の箇所に開示の仮想コンテンツのいずれを含んでもよい。また、場合によっては、MR/VR生徒デバイス13504及び/またはMR/VR教師デバイス13502は、仮想要素をユーザに提示する可視化デバイスとタッチベースの情報をユーザに提供する触覚デバイスの両方を含んでよい。
図135に示す例では、MR教育コンテンツ13406は、割当可能なモデル13508を含んでよい。例えば、MR/VR教師デバイス13502を着用している教師は、割当可能なモデル13508を制御してよく、一般的なまたは特定の操作権を1人または複数の生徒に割り当てることができてよく、1人または複数の生徒は、操作権を割り当てられると、割当可能なモデル13508を制御及び操作できる。従って、この例では、別個の教師モデル及び生徒モデルを用いずに、1つの割当可能なモデル13508が、複合現実または仮想現実提示で提示される。MR/VR教師デバイス13502を使用して、教師は、割当可能なモデル13508を操作することができ、必要に応じて、教師は、割当可能なモデル13508の制御をMR/VR生徒デバイス13504の1つに関連付けられた生徒に割り当ててよい。いくつかの場合には、教師は、割当可能なモデル13508の完全な制御権を提供してよく、他の場合には、限られた操作権のみが生徒に割り当てられてよい。例えば、場合によっては、教師は、インプラントを選択する権利、または、一部の他の術前、術中、または術後の選択を行う権利を生徒に割り当ててよいが、仮想モデルの移動、整列、またはサイズ変更の能力は、生徒に割り当てられず、教師が保持してよい。このような限定的な操作権の割当は、同じ3D仮想モデルを見ている複数の生徒がいる教育環境には特に有用であり得る。
教育システム13501は、整形外科手術の少なくとも1つの側面をデモンストレーションする時、有用であり得る。システム13501は、第1のユーザ(すなわち、教師)に提示を表示するように構成された第1のデバイス(例えば、MR/VR教師デバイス13502)を含んでよく、ここで、提示は、1つまたは複数の割当可能な仮想要素(例えば、割当可能なモデル13508)を含む。システム13501は、第2のユーザ(すなわち、生徒の1人)に提示を表示するように構成された第2のデバイス(例えば、MR/VR生徒デバイス13504の1つ)をさらに含んでよい。この例によると、1つまたは複数の割当可能な仮想要素(例えば、割当可能なモデル13508)は、整形外科手術の少なくとも1つの側面をデモンストレーションし、1つまたは複数の仮想要素の制御は、第1のデバイス(例えば、MR/VR教師デバイス13502)から第2のデバイス(例えば、MR/VR生徒デバイス13504の1つ)に割当可能である。割当可能なモデル13508は、例えば、肩もしくは肩の一部、他の3D仮想表現のいずれか、または本明細書に記載の仮想モデル等、1つまたは複数の解剖学的特徴の3D仮想表現を含んでよい。
割当可能なモデル13508は、教育環境に有用であり得る。MR/VR教師デバイス13502を着用している教師は、割当可能なモデル13508を操作して、ガイダンス及び指示を生徒に提供してよい。MR/VR教師デバイス13502を使用して、教師は次に、割当アイコンを選択して、または、注視及び/またはハンドジェスチャを使用して、割り当てられる生徒を識別すること等によって、割当可能なモデル13508の操作権をMR/VR生徒デバイス13504を着用している1人または複数の生徒に割り当ててよい。操作権が1人または複数の生徒に割り当てられると、生徒(複数可)は、割当可能なモデル13508を操作できてよい。MR/VR教師デバイス13502を着用している教師、及びMR/VR生徒デバイス13504を着用している各生徒は、割当可能なモデル13508を見ることができてよいが、教師によって操作権を与えられた生徒(または、限定的な操作権または操作権のサブセットを与えられた生徒)のみが、割当可能なモデル13508を制御及び操作することができる。操作権を生徒に割り当てると、生徒による操作及び制御が、クラス全体に見えるようになってよい、または、場合によっては、教師デバイスと操作権を与えられた生徒の生徒デバイスとからだけ見えてよい。
割当可能なモデル13508の割当可能な制御は、生徒が、教師及び他の生徒のガイダンスの下、割当可能なモデルに対する操作を行うのを可能にすることによって、整形外科手術教育に非常に有用であり得る。これは、クラスが見ている中で、異なる生徒が割当可能なモデル13508を操作するチャンスを与えられる、グループ授業練習をもたらし得る。
本明細書に記載の他の例と同様、割当可能なモデル13508は、例示の関節窩骨もしくは例示の上腕骨、または肩全体の仮想モデル等、解剖学的特徴の仮想モデルを含んでよい。さらに、割当可能なモデル13504は、解剖学的特徴に対して行い得る手術計画、手術ステップまたは術後分析を支援するように設計された追加の仮想コンテンツを含んでよい。例えば、割当可能なモデル13508は、図127のMR教育コンテンツ12706に関して前述した仮想要素(または、前述した仮想要素の組み合わせ)のいずれをも含んでよい。
MR/VR生徒デバイス13504を使用して、MR/VR教師デバイス13502が制御を許可すると、生徒(複数可)は、クラスの前で、割当可能なモデル13508の操作、例えば、手術ステップ、手術準備、位置合わせ、ドリルによる穴開けもしくはリーミングのための軸設定、切断面の設定、仮想ジグの配置、ツールの選択、仮想インプラントの配置、仮想ワークフローの選択、選択が可動域に与える影響を見ること等の実行を許可されてよい。MR/VR教師デバイス13402を着用している教師は、生徒を効果的に訓練するように教示ガイダンスを提供し得る。割当可能なモデル13508は、各所与の生徒の操作が完了及び分析された後、MR/VR教師デバイス13502によってリセットされてよい。(仮想可動域情報等によって示される)結果は、割当可能なモデル13508に対する生徒の操作の効力及び有効性を割当可能なモデル13508に対する他の生徒の操作の効力及び有効性に対して評価して、生徒間で比較することができる。
場合によっては、割当可能なモデル13508を割り当てる行為は、クラスで生徒に発言を求めることに似ている。MR/VR教師デバイス13502を着用している教師は、MR/VR教師デバイス13502のユーザインタフェースから「割当」ウィジェットを選択することによって、または、ハンドジェスチャ、注視ベース選択、または、これらの選択技術の組み合わせを使用すること等によって、ユーザコントロールまたは編集権を所与の生徒に許可してよい。場合によっては、MR/VR教師デバイスを着用している教師は、割当可能なモデル13508への制御と、割当可能なモデル13508を操作する能力とを維持する。同時に、しかしながら、MR/VR教師デバイスを着用している教師は、1人または複数の生徒にアクセスを許可してよく、その結果、1人または複数の生徒は、仮想クラスの前で、ステップまたは手順を割当可能なモデル13508に対して行うことができる。
いくつかの例では、整形外科手術に関する教育で教師を支援するように構成された可視化デバイス213は、1つまたは複数の仮想要素を生成するように構成された1つまたは複数のプロセッサ514を含んでよく、ここで、1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現と画面520とを含み、画面520は、1つまたは複数の仮想要素を複合現実提示の一部として、教師が1人または複数の生徒に提示するように構成された透明の複合現実ディスプレイ画面(シースルーのホログラフィックレンズ等)を含んでよい。複合現実提示は、他の可視化デバイスを着用している1人または複数の生徒の整形外科手術に関する教示を促進するように構成され、ここで、プロセッサ514は、1つまたは複数の仮想要素を制御するように構成され、プロセッサ514は、1つまたは複数の仮想要素の制御を他の可視化デバイスの他のユーザの1人に割り当てるようにさらに構成される。場合によっては、プロセッサ514は、教師からの入力に応答して、生徒に制御を割り当ててよい。他の例では、プロセッサ514は、1人または複数の生徒からの入力に基づいて、(生徒が着用する)他の可視化デバイスの1つに制御を割り当てるように構成されてよく、(生徒が着用する)他の可視化デバイスは、教師が着用する可視化デバイス213に入力を通信する。
様々な例において、プロセッサ514によって生成された1つまたは複数の仮想要素は、図127のMR教育コンテンツ12706に関して前述した仮想要素(または、前述した仮想要素の組み合わせ)のいずれをも含んでよい。
いくつかの例では、可視化デバイス213は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む1つまたは複数の仮想要素を生成してよく、整形外科手術に関する教育のために1つまたは複数の仮想要素を制御するユーザ入力を受信してよく、仮想要素の少なくとも一部の制御を他のデバイスに割り当てるユーザ入力を受信してよい。例として、1つまたは複数の解剖学的特徴の仮想表現は、人間の肩の3D仮想モデル、または上腕骨頭の3D仮想図、または関節窩の3D仮想図を含んでよく、1つまたは複数の仮想要素を制御するユーザ入力を受信することは、可視化デバイス213が教師によって制御されることと、3D仮想表現に対する手術計画の1つまたは複数のステップを提示することとを含んでよい。次いで、ユーザ入力を受信した後、可視化デバイス213は、仮想要素の少なくともいくつかの制御を他のデバイスに割り当ててよく、3D仮想表現に対する手術計画の1つまたは複数のステップを調整する他のデバイス(例えば、生徒デバイス)からの追加の入力を受信してよい。
図136は、本開示による、可視化デバイスが実行し得る一般的な教育技術を示すフロー図である。可視化デバイスは、本開示に詳細に記載される可視化デバイス213を含んでよく、患者、外科医、医師、医学生、技師、看護師、医師助手、患者の親類、研究者、または整形外科医療処置に関する教育を望み得る任意の他の人等、任意のタイプの生徒によって着用されてよい。
図136に示すように、可視化デバイス213は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む1つまたは複数の仮想要素を提示する(13601)。例えば、可視化デバイス213を着用している人は、仮想の肩モデル、関節窩モデル、上腕骨モデル、または他の解剖学的3Dモデル等、患者の解剖学的特徴の仮想モデルを見てよい。可視化デバイス213は次に、整形外科手術の少なくとも1つの側面を、可視化デバイス213を着用している人に対してデモンストレーションしてよい(13602)。ある場合には、1つまたは複数の仮想要素を可視化デバイス213に提示する行為(13601)は、整形外科手術の少なくとも1つの側面をデモンストレーションするように、ユーザにとって教育的なものであり得る(13602)。他の場合には、整形外科手術の少なくとも1つの側面を可視化デバイス213でデモンストレーションするステップ(13602)は、可視化デバイス213上の1つまたは複数の仮想要素の何らかのタイプの変更または操作を伴ってよい。このような場合では、可視化デバイス213上の1つまたは複数の仮想要素のこれらの変更または操作は、異なる可視化デバイスまたは仮想現実デバイスを着用している教師によるアニメーション、可視化、または、場合によってはデモンストレーションを含んでよい。可視化デバイス213を着用している生徒は、教師によって行われるこのようなアニメーション、可視化、または、デモンストレーションを見てよく、可視化デバイス213に提示される1つまたは複数の仮想要素の支援で、生徒は、手術の1つまたは複数の側面に関する教育を受けることができる。
3D仮想表現を提示することに加えて、例として、1つまたは複数の仮想要素を提示する行為(13601)は、仮想の術前計画情報を提示すること、仮想術中手術ガイダンス情報を提示すること、または術後分析を提示することをさらに含んでよい。可視化デバイス213は、図127のMR教育コンテンツ12706に関して前述した仮想要素(または、前述した仮想要素の組み合わせ)のいずれかを含む1つまたは複数の仮想要素を提示するように構成されてよい。可視化デバイス213によって提示されたこの仮想情報は、術前計画または術前計画の一部をデモンストレーションすること、術中手術ステップをデモンストレーションすること、または、術前、術中もしくは術後の分析を提供すること等によって、整形外科手術の少なくとも1つの側面のデモンストレーションを支援してよい(13602)。
一例では、可視化デバイス213は、解剖学的モデル、または死体の解剖学的特徴に対して提示されたガイダンス情報の形式で、1つまたは複数の仮想要素を提示してよい(13601)。この場合、手術ガイダンス情報は、他の可視化デバイスのユーザが、可視化デバイス213を着用している生徒が見るデモンストレーションを使用して、手術手順に関して可視化デバイス213を着用している生徒を訓練するのを可能にする。手術手順の少なくとも1つの側面をデモンストレーションするために提示する(13601)のに有用であり得る例示の仮想要素は、合成モデル関節窩、または死体の関節窩に対して配置されるリーミング軸を含んでよい。
さらに他の例において、可視化デバイス213は、例えば、任意の所与のインプラント埋め込みまたはインプラント埋め込み手順に関連付けられた所望の結果または問題を示し得る術前アニメーションを含む1つまたは複数の仮想要素を提示してよい(13601)。例えば、可視化デバイス213は、不正確なサイズのインプラントの埋め込みに関連付けられた起こり得るインピンジメントを示すアニメーション、または正確なサイズのインプラントの埋め込みに関連付けられた所望の結果を示すアニメーションを提示してよい。場合によっては、可視化デバイス213は、特定のインプラントまたは特定のインプラント埋め込み手順に関連する影響(例えば、所望の結果、または望ましくないインピンジメントもしくは可動域の減少)をデモンストレーションまたは示す即時フィードバックをユーザに提示してよい。
図137は、本開示による、2つの異なるデバイス(例えば、教師デバイス及び生徒デバイス)によって行われ得る一般的な教育技術を示すフロー図である。第1のデバイス及び第2のデバイスは、それぞれ、本開示に詳細に記載した可視化デバイス213を含んでよい。あるいは、第1のデバイス及び第2のデバイスの一方または両方は、仮想現実(VR)デバイスを含んでよい。図137に示すように、1つまたは複数の仮想要素が、第1のデバイスに提示され、1つまたは複数の仮想要素は、整形外科手術の少なくとも1つの側面をデモンストレーションするように第1のユーザ(例えば、教師)によって制御可能である(13701)。1つまたは複数の仮想要素はまた、整形外科手術に関して第2のユーザ(例えば、生徒)を教育するために第2のデバイスに提示される(13702)。一般に、複合現実(または、仮想現実)の支援で教えられる人はいずれも、本開示によると、生徒であってよく、同様に、複合現実(または、仮想現実)の支援で教える人はいずれも、本開示によると、教師であってよい。
他の例と同様、図137の例示のプロセスでは、第1のデバイスを着用している第1のユーザによって制御可能で、第2のデバイスを着用している第2のユーザが見ることができる1つまたは複数の仮想要素は、整形外科手術に関する教育を容易にし得る。例えば、術前ステップ、術中ガイダンスステップ、または手術結果を示す1つまたは複数の解剖学的特徴の3D仮想表現及び追加の仮想要素を含む、多種多様なこのような仮想要素を上に記載する。
複合現実が使用されるいくつかの例では、本明細書に記載のMR生徒デバイスのいずれも、整形外科手術に関してユーザに教育するように構成された可視化デバイス(可視化デバイス213等)を含んでよい。可視化デバイス213は、1つまたは複数の仮想要素を生成するように構成された1つまたは複数のプロセッサ514と、画面520を含んでよく、画面520は、ユーザに提示を提示するように構成された透明の複合現実ディスプレイ画面(シースルーのホログラフィックレンズ等)を含んでよく、ここで、複合現実提示は、1つまたは複数の仮想要素を含み、1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含み、1つまたは複数の仮想要素は、複合現実提示が整形外科手術に関してユーザを教育するように構成されるように、3D仮想表現に対して図示または例示される1つまたは複数の仮想術前計画要素、3D仮想表現に対して図示または例示される1つまたは複数の仮想手術ガイダンス機能、または、3D仮想表現上に仮想で示された1つまたは複数の手術結果をさらに含む。
ここでも、非制限的な例として、1つまたは複数の解剖学的特徴の仮想表現は、人間の肩の3D仮想モデル、上腕骨頭の3D仮想図、または関節窩の3D仮想図を含んでよい。さらに、1つまたは複数の仮想要素は、図127のMR教育コンテンツ12706に関して前述した仮想要素(または、前述した仮想要素の組み合わせ)のいずれかを含んでよい。
さらに他の例では、可視化デバイス213は、3D仮想表現を解剖学的要素の物理的モデル、または死体の対応する解剖学的特徴に位置合わせする位置合わせプロセスをデモンストレーションするように構成されてよい。いくつかの例では、1つまたは複数の仮想要素は、手術ガイダンス情報を含み、インプラントコンポーネントのために準備されたインプラント埋め込み箇所に関連付けられたトライアル情報を含む、深さ支援要素を位置合わせする位置合わせプロセスを示す、閉ループ制御を含む自動ツールの使用に関する仮想訓練情報もしくは仮想視覚支援を含む、可動域に関する仮想情報を含む、仮想術前アニメーションを含む、3D仮想表現に対して配置された1つまたは複数の仮想インプラントコンポーネントを含む、または、整形外科手術に関する教育的な他の特徴を提供する。
図138は、複合現実及び/または仮想現実の支援で行うことができる教育的技術を示す別のフロー図である。図34の教育システム13401を再び参照して、図138を説明する。教育システム13401は、整形外科手術の少なくとも1つの側面のデモンストレーションで有用であり得る。しかしながら、他の教育システムも、図138に示す技術と類似の技術を実施してよい。図138に示すように、第1のデバイス(例えば、MR/VR教師デバイス13402)は、教師モデル13408を含む1つまたは複数の仮想要素を表示してよい(13801)。MR/VR教師デバイス13402を着用している教師は、整形外科手術手順または手術計画の1つまたは複数の側面を、教師モデル13408を使用してデモンストレーションする(13802)。同様に、第2のデバイス(例えば、MR/VR生徒デバイス13404の1つ)は、生徒モデル13405を含む1つまたは複数の仮想要素を提示してよい(13803)。第2のデバイスは、手術手順または手術計画の少なくとも1つの側面を、生徒モデル13405を使用して実行する生徒からの入力を受信してよい(13804)。このように、教師モデル13408を含む仮想要素の第1のセットは、教師によって操作されて、整形外科手術または手術計画の少なくとも1つの側面をデモンストレーションしてよく、教師モデル13408と類似し得る生徒モデル13405A、13405Bまたは13405Nを含む仮想要素の追加のセットは、異なる生徒によって操作されてよい。ある場合には、生徒は、教師が行う手術ステップをまねることを試みてよく、(教師が使用する教師固有の仮想要素に類似した)各生徒のための生徒固有の仮想要素の使用は、整形外科手術教育の非常に有用な教育システムを提供し得る。他の場合には、生徒は、手術計画の選択もしくは規定、インプラントサイズの選択、手術タイプの選択、または、他の手術計画決定を生徒モデル13405に基づいて試みてよく、各生徒が行った計画及び選択は、教師の計画、または、場合によっては、コンピュータアルゴリズムが規定した計画と比較することができる。
いくつかの例では、教師モデル13408は、物理的モデルまたは死体の解剖学的特徴に対して教師デバイス13402によって配置されてよく、生徒モデル13405A、13405Bまたは13405Nは、第2の解剖学的モデルまたは第2の死体の解剖学的特徴に対して生徒デバイス13404の1つによって配置されてよい。言い換えると、教師及び生徒は、異なるモデルまたは異なる死体に対して配置された仮想要素を操作してよい。さらに、追加のガイダンスベースの仮想要素が、死体に対するトライアル手術プロセスを支援するように、生徒モデル及び教師モデルに対して提示されてよい。
図139は、図135のMR/VR教師デバイス13502としても示され得る、例えば、可視化デバイス213によって行われてよい教育技術を示す別のフロー図である。図139に示すように、可視化デバイス213は、1つまたは複数の仮想要素をユーザ(例えば、教師)に提示し、仮想要素は、解剖学的特徴の仮想3Dモデルを含む(13901)。可視化デバイス213を使用して、教師は、例えば、仮想3Dモデルを使用及び操作することによって、且つ、仮想3Dモデルに対する他の仮想の特徴を選択もしくは提示することによって、整形外科手術手順または整形外科手術計画の少なくとも1つの側面をデモンストレーションする(13902)。教師は次に、仮想要素の仮想コントロール(または、このような仮想コントロールのサブセット)を、教師が着用するのとは異なる可視化デバイス213を使用した生徒の1人に割り当ててよい(13903)。割当可能な仮想要素の仮想コントロールが生徒に許可されると、生徒が着用する可視化デバイス213は次に、仮想3Dモデルを使用して、整形外科手術の少なくとも1つの側面を行う、または、手術計画の1つまたは複数の側面を規定する生徒入力を受信してよい(13904)。このように、教師は、可視化デバイス213を使用して、仮想要素を生成及び制御し、次に生徒に制御を割り当ててよい(ここで、生徒は他の可視化デバイス213を使用する)。教師は、教師が行った整形外科手術ステップを生徒がまねる能力を観察及び評価してよい、または、手術計画のための術前の決定及び選択を良好に行う生徒の能力を評価してよい。
図140は、整形外科手術教育の複合現実及び/または仮想現実を使用する教育システム、例えば、教育システム14001の概念ブロック図である。この教育システムでは、ユーザは、仮想要素を含む仮想コンテンツの操作可能なコピーを起動できる。図140の例では、教師が、MR/VR教師デバイス14002を着用し、複数の生徒が、MR/VR生徒デバイス14004A及び14004B~14004N(集合的に、MR/VR生徒デバイス14004)を着用する。この例では、参加者(教師または生徒)のいずれも、複合現実または仮想現実を使用して授業セッションに参加してよい。言い換えると、MR/VR教師デバイス14002及びMR/VR生徒デバイス14004のいずれも、可視化デバイス213等の複合現実デバイスを含んでよい、あるいは、MR/VR教師デバイス14002及びMR/VR生徒デバイス14004は、仮想情報のみを提示する仮想現実デバイスを含んでよく、この場合、複合現実デバイスを着用しているユーザに提示される現実世界情報は、仮想現実デバイスを着用しているユーザに仮想情報として提示されてよい。
MR/VR教育コンテンツ14006は、図127~図133に関して、または本開示の他の箇所に記載される教育コンテンツのいずれか等、本開示の他の箇所に開示の仮想コンテンツのいずれをも含んでよい。さらに、図140に示す例では、MR教育コンテンツ14006は、仮想モデル14008、ならびに仮想モデルのコピー14009とを含んでよく、仮想モデルのコピー14009は、教育セッション中、MR/VR生徒デバイス14004(または、MR/VR教師デバイス14002)の1つによって起動されてよい。仮想モデル14008及び仮想モデルのコピー14009はそれぞれ、人間の肩の3D仮想モデル、上腕骨頭の3D仮想図、関節窩の3D仮想図、または整形外科手術手順に関連付けられた解剖学的特徴の他の3Dモデル等、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含んでよい。場合によっては、MR/VR生徒デバイス14004及び/またはMR/VR教師デバイス14002は、仮想要素をユーザに提示する可視化デバイスとタッチベースの情報をユーザに提供する触覚デバイスの両方を含んでよい。
教育セッション中、仮想モデルのコピー、例えば、仮想モデルコピー14009を生徒(または、教師)が起動する能力は、整形外科手術教育にとって非常に有用であり得る。仮想モデルコピー14009は、例えば、MR/VR教師デバイス14002を使用して仮想モデル14008を操作した後、教育セッションの途中で、起動されてよい。いくつかの場合には、仮想モデルコピー14009は、術中手術ステップを示す仮想コンテンツを含んでよく、教師は以前の手術に関連する何らかの操作を仮想モデル14008に対して既に行っている。他の場合には、手術計画ステップ、インプラント選択、手術タイプ(例えば、逆か解剖学的か)の選択、インプラントの配置、インプラントサイズの選択、手術用ツールの選択、または他の手術計画ステップもしくは決定を生徒が行うのを可能にし得る仮想モデルコピー14009を起動してよい。
教育システム14001は、手術ステップまたは手術計画等、整形外科手術の少なくとも1つの側面をデモンストレーションする時、有用であり得る。MR/VR教師デバイス14002を着用している教師は、手術ステップまたは手術計画の1つまたは複数の側面をデモンストレーションしてよい。デモンストレーション中、または任意の時に、MR/VR生徒デバイス14004(または、MR/VR教師デバイス14002)の1つは、場合によっては、教師が1つまたは複数の手術に関連する操作を仮想モデル14008に対して、または、何らかの前の手術計画ステップを仮想モデルに対して行った後、仮想モデル14008のコピーであってよい仮想モデルコピー14009を起動してよい。このように、生徒は、特定の計画段階、または手術中の特定の術中手術ステップに焦点を当てることができ得る。ある場合には、仮想モデルコピー14009は、生徒による操作と教師による見直しの後、廃棄されてよいが、他の場合には、仮想モデルコピー14009は、仮想モデル14008と置き換えるために教師によって採用されてよい。この後者の例では、仮想モデルコピー14009の生徒操作は、教師は、整形外科手術の次のステップまたは手術計画の次のステップに関して生徒を引き続き教育するので、仮想モデル14008として教師に認められ、採用されてよい。
いくつかの例では、システム14001は、第1のユーザ(すなわち、教師)に対して提示を表示するように構成された第1のデバイス(例えば、MR/VR教師デバイス14002)を含んでよく、ここで、提示は、第1のデバイスを着用している第1のユーザが制御可能な1つまたは複数の仮想要素を含む仮想モデル14008を含み、1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む。さらに、システム14001は、第2のユーザ(すなわち、生徒の1人)に提示を表示するように構成された第2のデバイス(例えば、MR/VR生徒デバイス14004の1つ)を含んでよい。1つまたは複数の仮想要素を含む仮想モデル14008は、整形外科手術手順の手術ステップ、または整形外科手術手順の手術計画ステップ等、整形外科手術手順の少なくとも1つの態様をデモンストレーションしてよい。第2のデバイス(例えば、MR/VR生徒デバイス14004の1つ)または第1のデバイス(例えば、MR/VR教師デバイス14002)は、第2のユーザ(すなわち、生徒の1人)または第1のユーザ(すなわち、教師)からの入力に応答して、仮想モデルのコピー14009を生成するように構成されてよい。そして、仮想モデルのコピー14009は、第2のデバイスを着用している第2のユーザによって制御可能であってよい。場合によっては、第1のデバイスは、仮想モデルのコピー14009が第2のデバイスを着用している第2のユーザによって操作された後、仮想モデル14008を仮想モデルのコピー14009で置き換えるようにさらに構成されてよい。言い換えると、例えば、生徒が、仮想コンテンツの生徒のコピーに対して正確なステップまたは操作を行う場合、教師は、このような生徒操作の後、仮想モデルの生徒のコピーバージョンを全ての生徒に対して新しい教師コンテンツとして採用してよく、教師は次に、整形外科手術手順のその後の手術ステップまたは手術計画ステップをデモンストレーションするように教育セッションを続けてよい。
例として、仮想モデル14008(及び、仮想モデルコピー14009)は、3D仮想表現に対して術前計画要素を示す追加の仮想要素、3D仮想表現に対して示された1つまたは複数の仮想手術ガイダンス機能、または、3D仮想表現上に仮想で示された1つまたは複数の手術結果を含んでよい。多種多様なこのような追加の仮想要素が、本開示を通して記載される。
いくつかの例では、整形外科手術手順に関してユーザを教育するように構成された可視化デバイス213は、画面520を含んでよく、画面520は、複合現実提示をユーザに提示するように構成された透明な複合現実ディスプレイ画面(シースルーのホログラフィックレンズ等)を含んでよく、ここで、複合現実提示は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む1つまたは複数の仮想要素を含む。言い換えると、生徒が着用する可視化デバイス213は、教師が着用する異なる可視化デバイスによって生成及び制御される整形外科手術手順(例えば、手術ステップまたは手術計画)に関して複合現実提示を見てよい。生徒が着用する(または、教師が着用する)可視化デバイス213は、教師が示す仮想モデルのコピーを生成するように構成されたプロセッサ514を含んでよく、コピーは、生徒が着用する可視化デバイス213によって制御可能である。このように、生徒(または、教師)は、教師による提示中、教師が提示する仮想コンテンツのコピーを起動及び操作することができてよい。生徒が起動及び操作する仮想コンテンツのコピーは、教師が、仮想コンテンツに関して、このようなコンテンツが生徒によって起動及び操作される前に、既に行った手術計画(または、手術ステップ)を含んでよい。このように、仮想モデルの生徒コピーは、特定の手術計画ステップまたは特定の手術動作ステップを教えるために設計されてよい。
例として、教師モデルのコピーとして生徒が起動及び操作し得る仮想モデルは、手術計画ステップまたは手術動作ステップに対して教育を容易にするために、本明細書に記載の追加の仮想情報のいずれをも含んでよい。このような追加の仮想情報は、例えば、3D仮想表現に対して示された、もしくは例示された仮想切断軸、3D仮想表現に対して示された、もしくは例示された仮想ドリル軸、3D仮想表現に対する仮想ジグまたはガイドの配置もしくは選択、仮想ジグまたはガイド対して示された、もしくは例示された仮想軸、3D仮想表現に対して提示された手術ガイダンス情報、3D仮想表現を物理的モデルもしくは死体の対応する特徴へ位置合わせする位置合わせプロセスの図、インプラントコンポーネントの準備された埋め込み箇所に関連付けられたトライアル情報、深さ支援要素を位置合わせする位置合わせプロセスを示す情報、閉ループ制御を含む自動ツールの使用に関する仮想訓練情報もしくは仮想視覚支援、可動域に関する仮想情報、仮想術前アニメーション、3D仮想表現に対する1つまたは複数の仮想インプラントコンポーネントの図、手術計画の決定の選択、インプラントもしくはインプラントサイズの選択、手術用ツールもしくはツールサイズの選択、手術タイプの選択もしくは決定、または手術計画もしくは手術ガイダンスに関連する他の要素等のものを含んでよい。
いくつかの例では、方法は、生徒デバイス及び教師デバイス上に整形外科手術の複合現実提示を表示することを含んでよく、ここで、複合現実提示は、教師デバイスによって制御される仮想要素の教師コピーを含み、仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む。
場合によっては、MR/VR教師デバイス14002は常に、仮想モデル14008のマスタモデルを含んでよい。1つまたは複数のコピー(例えば、仮想モデルコピー14009)は、MR/VR生徒デバイス14004の1つによる生徒の使用のために生成されてよく、場合によっては、このようなコピー(例えば、仮想モデルコピー14009)は、MR/VR教師デバイス14002によって制御されるマスタモデル(例えば、仮想モデル14008)との比較として提示されてよい。場合によっては、仮想モデルコピー14009は、仮想モデル14008上に、場合によっては、生徒の操作後、重ね合わされて、仮想モデル14008と仮想モデルコピー14009との正確な比較を可能にしてよい。場合によっては、各生徒は、対応する仮想モデルコピー14009を有してよい。いくつかの場合には、各生徒の仮想モデルコピー14009は、その対応するMR/VR生徒デバイス14004によってのみ見ることができてよく、他の場合には、MR/VR生徒デバイスのそれぞれは、MR/VR生徒デバイス14004の他のMR/VR生徒デバイス14004に関連付けられた仮想モデルコピー14009を見ることができてよい。
図141は、整形外科手術教育の複合現実及び/または仮想現実を使用する教育システム、例えば、教育システム14101の概念ブロック図である。教育システム14101では、生徒及び教師は、本明細書に記載の追加の仮想要素を含み得るいくつかの異なる3D仮想モデルを見て、比較することができる。図141の例では、教師が、MR/VR教師デバイス14102を着用し、複数の生徒が、MR/VR生徒デバイス14104A及び14104B~14104N(集合的に、MR/VR生徒デバイス14104)を着用する。この例では、参加者(教師または生徒)のいずれも、複合現実または仮想現実を使用して授業セッションに参加してよい。言い換えると、MR/VR教師デバイス14102及びMR/VR生徒デバイス14104のいずれも、可視化デバイス213等の複合現実デバイスを含んでよい、あるいは、MR/VR教師デバイス14102及びMR/VR生徒デバイス14104は、仮想情報のみを提示する仮想現実デバイスを含んでよく、この場合、複合現実デバイスを着用しているユーザに提示される現実世界情報は、仮想現実デバイスを着用しているユーザに仮想情報として提示されてよい。MR/VR教育コンテンツ14106は、図127~図133に関して、または本開示の他の箇所に記載される教育コンテンツのいずれか等、本開示の他の箇所に開示される仮想コンテンツのいずれをも含んでよい。また、場合によっては、MR/VR生徒デバイス14104及び/またはMR/VR教師デバイス14102は、仮想要素をユーザに提示する可視化デバイスとタッチベースの情報をユーザに提供する触覚デバイスの両方を含んでよい。
図141の例に示すように、MR/VR教育コンテンツ14106は、複数のモデル(例えば、モデル1(14108A)及びモデル2(14108B)~モデルN(14108N))を含む。場合によっては、複数のモデル(集合的に、モデル14108)は、同じ解剖学的構造で異なる手術計画を示してよい。複数のモデル14108を集合的提示の一部として提示することは、整形外科手術手順または手術計画の教育を促進するために非常に有用であり得る。これは、現在の手術計画の他の例に対する対照比較を提示してよい。例えば、モデル1(14108A)は、手術のために計画された現在の患者モデルを含んでよく、他のモデル(モデル2(14108B)~モデルN(14108N))は、同じ解剖学的構造に基づいて他の人によって計画されたモデル、達成されたケーススタディに関連付けられたモデル、理論的ケースのモデル、コンピュータアルゴリズムによって生成されたモデル、またはモデル1(14108B)との比較に有用であり得る任意のケーススタディを含んでよい。他の例では、複数のモデル14108は、教師モデルに対する生徒モデルを含んでよく、これらは、例えば、教育的整形外科手術プロセスの異なる段階で提示及び比較されてよい、または、手術計画の異なる態様の異なる手術計画を示すように提示されてよい。場合によっては、MR/VR生徒デバイス14104は、MRまたはVR提示内に異なるモデルを対照比較で提示することによって互いに協力し、体験を共有する外科医によって着用されてよい。場合によっては、MR/VR生徒デバイス14104は、「クラウドソーシング」セッションに参加してよく、「クラウドソーシング」セッションでは、様々な生徒が、MRまたはVRを使用して、類似の問題または課題に関して協力して特定の患者のケーススタディ、または特定のケーススタディの特定の課題の提示を紹介する。
場合によっては、複数のモデル14108は、(例えば、MR/VR生徒デバイス14104もしくはMR教師デバイス14102のメモリに記憶された、またはリモートに記憶された)3D仮想表現のカタログから選択されてよい。カタログの異なるモデルは、整形外科的修復を必要とし得る多種多様な異なる肩の状態をデモンストレーションしてよい。MR/VR教師デバイス14102を着用している教師は、例えば、MR/VR生徒デバイス14104の1つを着用している生徒に教育的デモンストレーションを行うために、3D画像のカタログから1つまたは複数の3D仮想表現を選択してよい。場合によっては、患者の解剖学的構造の3D仮想モデルが、対照比較のためにカタログの3D仮想モデルと比較されてよく、これは、ユーザが患者の解剖学的構造と、1つまたは複数の肩の問題を示すカタログからの他の例示の解剖学的構造の間の類似性を識別するのを支援し得る。
さらに他の場合では、複数のモデル14108を選択して、異なるタイプの分類(例えば、異なるタイプのWalch分類)を有する肩を示してよい。異なる分類は、異なるタイプの手術、または特定のサイズ、角度、及びインプラント位置を有する異なるインプラントコンポーネントの選択を必要とし得る。異なるタイプの肩分類にとって望ましい手順の相違を示すために、術前、術中、または、術後のステップが、複数のモデル14108を並べてデモンストレーションされてよい。さらに他の場合には、複数のモデル14108は、整形外科的足首手術の1つまたは複数の態様をデモンストレーションするために使用される足首モデルを含んでよい。
場合によっては、モデル14108の異なるモデルは、例えば、MR教師デバイス14102及びMR生徒デバイス14104のユーザが所与の肩分類の最も望ましい手術手順または計画を識別するのを支援するために、共通の患者に関連付けられた異なる手術手順または異なる手術計画を示してよい。例えば、モデル1(14108A)は、解剖学的外科用インプラントのモデルを提示してよく、モデル2(14108B)は、逆外科用インプラントのモデルを提示してよい。このように、MR教師デバイス14102及びMR生徒デバイス14104は、所与の肩分類の最適の手術手順のタイプを識別するために、場合によっては、術前の決定のためにインプラントを比較してよい。いくつかの例では、MR教師デバイス14102及びMR生徒デバイス14104は、教える役割を交換または共有する専門家のパネルまたはインストラクタのパネルによって着用されてよい。場合によっては、各ユーザは、制御能力を有してよい、または制御を許可されてMR教師デバイス14102になってよい。
図142は、整形外科手術教育の複合現実及び/または仮想現実を使用する教育システム、例えば、教育システム14201の概念ブロック図であり、教育システム14201では、教師は、教師がMR/VR教育コンテンツを制御するのを可能にする仮想制御要素を含む教師制御メニューを有する。他の例と同様、図142の例では、教師は、MR/VR教師デバイス14202を着用し、複数の生徒は、MR/VR生徒デバイス14204A及び14204B~14204N(集合的に、MR/VR生徒デバイス14204)を着用する。この例では、参加者(教師または生徒)のいずれも、複合現実または仮想現実を使用して授業セッションに参加してよい。言い換えると、MR/VR教師デバイス14202及びMR/VR生徒デバイス14204のいずれも、可視化デバイス213等の複合現実デバイスを含んでよい、あるいは、MR/VR教師デバイス14202及びMR/VR生徒デバイス14204は、仮想情報のみを提示する仮想現実デバイスを含んでよく、この場合、複合現実デバイスを着用しているユーザに提示される現実世界情報は、仮想現実デバイスを着用しているユーザに仮想情報として提示されてよい。MR/VR教育コンテンツ14206は、図127~図133に関して、または本開示の他の箇所に記載される教育コンテンツのいずれか等、本開示の他の箇所に開示の仮想コンテンツのいずれをも含んでよい。また、場合によっては、MR/VR生徒デバイス14204及び/またはMR/VR教師デバイス14202は、仮想要素をユーザに提示する可視化デバイスとタッチベースの情報をユーザに提供する触覚デバイスの両方を含んでよい。
図142の例に示すように、MR/VR教育コンテンツ14206は、教師制御メニュー14205を含み、メニュー14205は、整形外科手術手順に関するMRまたはVR提示を制御する仮想制御要素を含んでよい。場合によっては、教師制御メニュー14205は、MR/VR教師デバイス14202を着用している教師にだけ見えてよく、MR/VR生徒デバイス14204に示されるMR/VR教育コンテンツから隠されてよい。
教師制御メニュー14205は、注視、ウィジェットに向かってのジェスチャ、音声コマンド、または他の方法の選択を使用してMRまたはVR提示を制御するために、MR/VR教師デバイス14202を着用している教師が選択できる、仮想コントロールウィジェット等、選択可能な要素を含んでよい。詳細には、教師制御メニュー14205は、本開示に記載されるMRまたはVR特徴または要素を制御または起動するための要素を提示してよく、ユーザは、注視、ジェスチャ、音声コントロール、または複合現実または仮想現実で使用される他の選択を使用して、このような要素を選択してよい。例えば、教師制御メニュー14205は、MR/VR教育コンテンツ14206を提示及び/または操作するための1つまたは複数の要素を含んでよく、要素は、整形外科手術手順または整形外科手術手順教育で使用する本明細書に記載の仮想コンテンツのいずれをも含んでよい。教師制御メニュー14205は、ビデオ、画像、提示(パワーポイント提示等)、スプレッドシート、または複合現実または仮想現実教師環境で有用であり得る任意のものを起動するためのアイコン等の教育ツールを含んでよい。
一例として、教師制御メニュー14205は、MR/VR教育コンテンツ14204の仮想コントロールをMR/VR生徒デバイス14204の1つに割り当てるための仮想要素またはアイコンを含んでよい。別の例では、教師制御メニュー14205は、特定のMR/VR生徒デバイスの仮想コンテンツの生徒コピーを起動するために、または、MR/VR生徒デバイス14204の全ての仮想コンテンツの複数のコピーを起動するための仮想要素またはアイコンを含んでよい。より一般的には、教師制御メニュー14205は、MR/VR教師デバイス14202を着用している教師によって操作可能な教師コンテンツを提示するために、または、MR/VR生徒デバイス14204を着用している生徒によって操作可能な生徒コンテンツを提示するために、1つまたは複数の仮想要素またはアイコンを含んでよい。仮想要素またはアイコンは、注視、ジェスチャ、音声コントロール、または複合現実もしくは仮想現実で使用される他の選択を介して選択されてよい。
他の例では、教師制御メニュー14205は、協力的及び比較的ビューのための複数のモデルを提示するための1つまたは複数の仮想要素またはアイコンを含んでよい。他の例では、教師制御メニュー14205は、ビデオを提示するための、CTスキャン、画像、もしくはセグメント化を提示するための、術前画像もしくはビデオを提示するための、提示もしくは提示ツール(パワーポイント提示等)を選択及び起動するための1つまたは複数の仮想要素またはアイコンを含んでよい。他の例では、教師制御メニュー14205は、ノートを取るためのメモ帳、教育セッションを記録、もしくは、教育セッションの一部を記録するための記録アイコンを含んでよい。他の例では、教師制御メニュー14205は、所与の教育セッションのコンテンツをアーカイブにするための、他の症例の記録ビデオを評価するための、または、クラスデモンストレーションまたはディスカッションのために以前の例もしくは以前のモデルをロードするための仮想要素またはアイコンを含んでよい。
さらに他の例では、教師制御メニュー14205は、仮想コンテンツを見る能力を共有するための、または、このような仮想コンテンツを制御する能力を共有するための1つまたは複数の仮想要素またはアイコンを含んでよい。共有要素またはアイコンは、MR/VR生徒デバイス14204の特定のデバイスと共有すること、または、全てのMR/VR生徒デバイス14204と共有することを可能にし得る。
他の例では、教師制御メニュー14205は、例えば、クラスセッションを編成するためのファイルキューを含んでよい。また、教師制御メニュー14205は、教育単位に関するコンテンツ(医療継続教育単位等)を、このような単位の入手可能性を提示するために、または、生徒の出席を検証するために生徒の応答を求める等のために、含んでよい。
いくつかの例では、教師制御メニュー14205は、いくつかまたは全ての仮想要素の編集権を割り当てるための選択可能な要素またはアイコンを含んでよい。いくつかの例では、教師制御メニュー14205は、参加者のドロップダウンメニューを含むことによって、MR/VR生徒デバイス14204を着用している他の参加者を選択または指名するMR/VR教師デバイス14002の能力を促進してよい。他の例では、教師制御メニュー14205は、選択可能なアイコンまたはアバタを含んでよく、選択可能なアイコンまたはアバタは、MR/VR教師デバイス14202のユーザによって、例えば、ハンドジェスチャまたは注視ベースのユーザコントロールを用いて選択されて、生徒を指名することができる、または、仮想コントロールを生徒に割り当てることができる。
教師制御メニュー14205は、例えば対象の手順またはステップに類似し得る1つまたは複数の手順または手順のステップを見つける、手順の類似性によって類似の症例を特定するフィルタのための要素またはアイコンを含んでよい。教師が特定のフィルタアイコンを選択すると、MR/VR教師デバイス14202は、(ローカルまたはリモートにある)データベースにアクセスして、1つまたは複数の例示のケーススタディ、または現在のケーススタディによく適合する以前の手術を特定してよい。MR/VR教師デバイス14202は次に、アーカイブに保管されたモデルまたは例を、生徒に提示するためにMR/VR教育コンテンツ14206にロードしてよい。現在のケーススタディと類似性を有するアーカイブに保管されたケーススタディまたは例示の手順を特定する能力は、教育に非常に役立ち得る、また、生徒が(例えば、クラウドソーシングセッションで)一緒に作業して現在のケーススタディへの最適の対処法に関してブレインストーミングする協力的な教育セッションで特に使用されてよい。
教師制御メニュー14205に提示された要素またはアイコンは、ハンドジェスチャ、注視ベースコントロール、顔の表情を介して、または、場合によっては、選択ツール(指示棒(wand)またはレーザポインタ等)を使用して、MR/VR教師デバイス14202を着用している教師によって選択可能であってよい。教師は、教師制御メニュー14205からアイコンまたは要素を選択して、MR/VR提示してよく、仮想コンテンツを制御及び操作してよい。仮想コンテンツは、3D仮想表現(例えば、人間の肩の仮想モデル、関節窩表面もしくは関節窩の仮想モデル、または、上腕骨もしくは上腕骨頭の仮想モデル)、及び/または図127のMR教育コンテンツ12706に関して記載された仮想要素(または、組み合わせ)のいずれか等、追加の仮想コンテンツを含むが、それらに限らない整形外科手術または整形外科手術教育で使用される本明細書に記載の仮想コンテンツのいずれかを含んでよい。
さらに他の例では、教師制御メニュー14205は、保存された手術計画のセット、または、逆肩関節形成か解剖学的肩関節形成か等、異なる手順を選択及びデモンストレーションする図を含んでよい。
図143は、教師及び生徒の両方がMR/VR教育コンテンツを制御する仮想制御要素を有する整形外科手術教育の複合現実及び/または仮想現実を使用する教育システム、例えば、教育システム14301の別の概念ブロック図である。他の例と同様、図143の例では、教師が、MR/VR教師デバイス14302を着用し、複数の生徒が、MR/VR生徒デバイス14304A及び14304B~14304N(集合的に、MR/VR生徒デバイス14304)を着用する。この例では、参加者(教師または生徒)のいずれも、複合現実または仮想現実を使用して授業セッションに参加してよい。言い換えると、MR/VR教師デバイス14302及びMR/VR生徒デバイス14304のいずれも、可視化デバイス213等の複合現実デバイスを含んでよい、あるいは、MR/VR教師デバイス14302及びMR/VR生徒デバイス14304は、仮想情報のみを提示する仮想現実デバイスを含んでよく、この場合、複合現実デバイスを着用しているユーザに提示される現実世界情報は、仮想現実デバイスを着用しているユーザに仮想情報として提示されてよい。MR/VR教育コンテンツ14306は、図127~図133に関して、または本開示の他の箇所に開示の仮想コンテンツのいずれをも含んでよい。また、場合によっては、MR/VR生徒デバイス14304及び/またはMR/VR教師デバイス14302は、仮想要素をユーザに提示する可視化デバイスとタッチベースの情報をユーザに提供する触覚デバイスの両方を含んでよい。
教師制御要素14305は、図143に示すシステム14202の教師制御要素14205に関して記載した特徴、要素、アイコン、またはコントロールのいずれをも含んでよい。図143の例では、しかしながら、MR/VR生徒デバイス14304はまた、MR/VR教育コンテンツ14206の一部として仮想コントロールを提示される。例えば、MR/VR生徒デバイス1(14304A)は、生徒1の制御要素14307を提示するように構成されてよく、MR/VR生徒デバイス2(14304B)は、対応する生徒2の制御要素14307Bを提示するように構成されてよい。複数の生徒デバイスのそれぞれは、対応する仮想コントロールを有し、各デバイスの仮想コントロールは、そのデバイスのユーザによってのみ見ることができ得る。言い換えると、生徒1の制御要素14307Aは、MR/VR生徒デバイス1(14304A)によって見え得るが、生徒1の制御要素14307Aは、MR/VR生徒デバイス2(14304B)によっては見えなくてよい。同様に、生徒2の制御要素14307Bは、MR/VR生徒デバイス2(14304B)によって見え得るが、生徒2の制御要素14307Bは、MR/VR生徒デバイス1(14304A)によっては見えなくてよい。いくつかの場合には、MR/VR教師デバイス14302は、教師制御要素14305だけを見ることができてよく、生徒制御要素14307は見ることができなくてよいが、他の場合には、MR/VR教師デバイス14302は、生徒デバイス14304に関連付けられた生徒制御要素14307を含むコントロールの全てを見ることができ得る。場合によっては、教師制御要素14305は、生徒制御要素14307の視認性をMR/VR教師デバイス14302によって有効または無効にするためのアイコンまたは要素を含んでよく、これは、教師がこのようなコントロールの使用法を生徒に説明する必要がある時、有用であり得る。
一般に、各生徒制御要素14307は、教師制御要素14305内に含まれる特徴、要素、アイコン、またはコントロールのいずれをも含んでよい。さらに、各生徒制御要素14307は、図143に示すシステム14202の教師制御要素14205に関して記載した特徴、要素、アイコン、またはコントロールのいずれをも含んでよい。大抵の場合、しかしながら、生徒制御要素14307は、教師制御要素14305と比較して、より限られた数の制御要素を含んでよい。大抵の場合、例えば、教師制御要素14305は、MR/VR教育コンテンツ14206に対する全体的な制御を提供してよく、生徒制御要素14307は、MR/VR教育コンテンツ14206に対してより限られた制御を有してよい。さらに他の場合では、MR/VR生徒デバイス14304の異なるMR/VR生徒デバイス14304は、MR/VR教育コンテンツに対して異なるレベルの制御を与えられてよく、場合によっては、MR/VR教師デバイス14302は、このような異なるレベルの制御をMR/VR生徒デバイス14304に割り当てたり、割当を解除するように構成されてよい。
いくつかの例では、教師制御要素14305及び/または生徒制御要素14307は、異なるユーザのノートを記録するノート取り機能を含んでよい。また、訓練セッション及び生徒または教師によって行われた任意の仮想操作の記録が、MR/VR教育コンテンツ14306の一部として記録及び文書記録されてよい。
図144は、複合現実及び/または仮想現実の支援で行うことができる別の教育技術を示すフロー図である。図144は、図140のシステム14001の視点から記載されるが、他のシステムは類似の技術を使用でき得る。図144に示すように、MR/VRデバイス(MR/VR教師デバイス14002、またはMR/VR生徒デバイス14004の1つ等)は、MR/VR教師デバイス14002(14401)によって制御される仮想要素(例えば、仮想モデル14008)を含む整形外科手術手順に関するMRまたはVR提示を表示する。MR/VRデバイス(MR/VR教師デバイス14002、またはMR/VR生徒デバイス14004の1つ等)は次に、仮想要素の生徒コピー(例えば、仮想モデルコピー14009)を提示し、ここで、生徒コピーは、生徒デバイス(例えば、MR/VR生徒デバイス14004の1つ)によって制御可能である(14402)。場合によっては、MR/VR教師デバイス14002は、各生徒に生徒コピーを生成し、場合によっては、MR/VR生徒デバイス14004は、仮想要素の各生徒コピーを生成することができる。場合によっては、コピーは、仮想要素の元のバージョンではなく、むしろ、コピーは、教師による何らかの最初の操作後の仮想要素のバージョンを含んでよい。例えば、教師または生徒は、進行中の仮想提示中、仮想コンテンツのコピーを生成して、整形外科手術手順の異なる段階または手術計画セッションの異なる段階で生徒コピーを生成可能にすることができてよく、その結果、生徒は、特定の手術ステップをまねる、もしくは練習することができる、または特定の手術計画ステップに関連する手術計画決定を行うことができる。さらに、場合によっては、MR/VR教師デバイス14002は、生徒がコピー14009を操作した後、仮想モデル14008を仮想モデルのコピー14009で置き換えてよい。
いくつかの例では、システム14001は、整形外科手術の少なくとも1つの側面をデモンストレーションし、第1のユーザに提示を表示するように構成された第1のデバイス(例えば、MR/VR教師デバイス14002)を含む。ここで、提示は、第1のデバイスを着用している第1のユーザが制御可能な1つまたは複数の仮想要素を含み、1つまたは複数の仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む。さらに、システム14001は、第2のユーザに提示を表示するように構成された第2のデバイス(例えば、MR/VR生徒デバイス14004の1つ)を含む。1つまたは複数の仮想要素は、整形外科手術の少なくとも1つの態様をデモンストレーションする。いくつかの場合には、第2のデバイス(例えば、MR/VR生徒デバイス14004の1つ)または第1のデバイス(例えば、MR/VR教師デバイス14002)は、第1のユーザまたは第2のユーザからの入力に応答して、1つまたは複数の仮想要素のコピーを生成するように構成されてよく、1つまたは複数の仮想要素のコピーは、第2のデバイスを着用している第2のユーザによって制御可能である。他の場合には、しかしながら、MR/VR教師デバイス14002は、コピーを生成して、MR/VR生徒デバイス14004Aに割り当ててよい。いくつかの例では、第1のデバイスは、1つまたは複数の仮想要素のコピーを1つまたは複数の仮想要素のコピーが第2のデバイスを着用している第2のユーザによって操作された後に提示される1つまたは複数の仮想要素のコピーで置き換えるようにさらに構成されてよい。
例として、仮想モデル14008として表される1つまたは複数の仮想要素(ならびに、仮想モデルコピー14009として表される仮想要素生徒コピー(複数可))は、1つまたは複数の解剖学的特徴の3D仮想表現と、3D仮想表現の追加の手術ガイダンス情報または手術計画情報とを含んでよい。
いくつかの例では、可視化デバイス213は、整形外科手術手順に関してユーザを教育するように構成されてよく、可視化デバイス213は、画面520を含んでよく、画面520は、複合現実提示をユーザに提示を表示するように構成された透明の複合現実ディスプレイ画面(シースルーのホログラフィックレンズ等)を含んでよく、ここで、複合現実提示は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む1つまたは複数の仮想要素を含む。さらに、可視化デバイス213は、1つまたは複数の仮想要素のコピーを生成するように構成された1つまたは複数のプロセッサ514をさらに含んでよく、ここで、コピーは、可視化デバイスで制御可能である。いくつかの場合には、元の複合現実提示が、他の可視化デバイス(例えば、教師デバイス)の他のユーザによって生成及び制御され、コピーは、生徒が着用する可視化デバイス213によって生成及び制御される。他の場合には、しかしながら、コピーは、MR/VR教師デバイス14002によって生成されて、MR/VR生徒デバイス14004の1つに割り当てられてよい。いくつかの例では、方法は、生徒デバイス及び教師デバイス上に整形外科手術の複合現実提示を表示することであって、複合現実提示は、教師デバイスによって制御される仮想要素の教師コピーを含み、仮想要素は、整形外科手術手順に関連付けられた1つまたは複数の解剖学的特徴の3D仮想表現を含む、整形外科手術の複合現実提示を表示することと、仮想要素の生徒コピーを生成することとを含み、生徒コピーは、生徒デバイスによって制御可能である。
図145は、進行中の手術手順の特定の詳細に関してリモートユーザの教育を支援する機能を含む教育システムの概念ブロック図である。教育システム14501は、術中環境に特に関連する整形外科手術教育の特定の教育シナリオを規定する。本開示の他のセクションで、術中のやりとりが異なるユーザ間で行われ、多くの協力的状況において、1人または複数の手術参加者がMR、または、場合によっては、VRの使用を通して手術室の参加者とやりとりするリモート参加者であってよい様々なシナリオ及び設定を記載する。いくつかの場合には、手術支援は、手術室内にあってよく、他の場合には、手術支援はリモートであってよい。いずれにせよ、図145は、MR手術デバイス14504を着用している手術参加者(外科医等)がMR/VR手術支援デバイス14508を着用しているまたは他の方法で使用している別の人(外科専門医等)からの手術支援を引き出す教育シナリオを示す。
MR手術デバイス14504は、本開示を通して詳細に記載している可視化デバイス213等、複合現実デバイスを含んでよい。例えば、MR手術デバイス14504は、仮想の術中支援を外科医に提供する外科医が着用する可視化デバイスを含んでよい。MR手術デバイス14504は、本開示に記載の特徴のいずれをも使用して、整形外科手術ステップでユーザ(例えば、外科医、または、場合によっては、他の手術参加者)を支援してよい。
VR/MR手術支援デバイス14508は、可視化デバイス213等の複合現実デバイスを含んでよい、あるいは、VR/MR手術支援デバイス14508は、仮想現実デバイスを含んでよい。いずれの場合でも、MR手術支援デバイス14504のユーザは、手順中、専門家の支援を引き出してよく、それを行うために、MR手術デバイス14504は、VR/MR手術支援デバイス14508との通信セッションを開始するように構成されてよい。または、他の例では、専門家の支援は、電話、Eメール、テキストメッセージ、または任意の他のメッセージを介して等、他の方法で連絡されてよく、連絡に応答して、外科専門医は、VR/MR手術支援デバイス14508を介して、(物理的にまたはリモートで)手術室で行われている手順に参加してよい。場合によっては、MR手術デバイス14504及びVR/MR手術支援デバイス14508は、直接、またはネットワークを介して互いに通信してよい。
MR手術デバイス14504を着用している外科医は、多種多様な状況の手術手順に関して専門家の支援の恩恵を受けてよい。外科医が、困難、合併症、または予測外の状況に直面する時はいつでも、MR手術デバイス14504を着用している外科医は、専門家の支援の恩恵を受けてよい。例えば、肩または足首を開き、インプラントを取り付けようとすると、MR手術デバイス14504を着用している外科医は、患者の骨の質がインプラントには不十分すぎることを発見する場合がある。この場合、MR手術デバイス14504を着用している外科医は、計画通りの固定を実施することが困難または不可能であると判断する場合があり、この場合、専門家に連絡し、患者のCT画像及び患者の解剖学的構造の3D再構成を、(例えば、MR手術デバイス14504を介して取得された)現実シーンの画像と共に専門家に見せると有益であり得る。これらの場合及び他の場合で、VR/MR手術支援デバイス14508を着用している外科専門医が手術に参加すると非常に有益であり得る。
しかしながら、手術手順に参加すると、VR/MR手術支援デバイス14508を着用している外科専門医は、「情報提供」機能14505として示される教育機能から恩恵を受け得る。「情報提供」機能14505は、整形外科手術手順の1つまたは複数の以前に実行されたステップに関してVR/MR手術支援デバイス14508のユーザに情報を与えてよい。例えば、VR/MR手術支援デバイス14508のユーザが参加した時にMR手術デバイス14504のユーザに有用な支援を提供するために、VR/MR手術支援デバイス14508のユーザは、手順で既に行われた以前のステップに関して、教育され、基本的な「情報提供」を受けることが必要な場合がある。実際に、進行中の手術の問題または課題を分類するために、VR/MR手術支援デバイスのユーザは、既に行われた手順のステップに関して知識を必要とし得る。従って、整形外科手術支援のコンテンツ14506は、素早く、効率的な方法で特定の術中教育を提供する「情報提供」機能14505を含んでよい。さらに、場合によっては、例えば、VR/MR手術支援デバイス14508のユーザへの視覚支援として、視覚支援14507も提供されてよい。
一例では、手術システム14501は、進行中の手術中、VR/MR手術支援デバイス14508に術中教育を提供するように構成される。システム14501は、第1のユーザ(例えば、外科医または他の手術参加者)に第1の提示を表示するように構成された第1のデバイス(例えば、MR手術デバイス14504)を含む。第1の提示は、整形外科手術手順で第1のユーザを支援するように構成された1つまたは複数の仮想要素を含む。システム14501は、第2のユーザ(例えば、専門外科医、または整形外科手術プロセスの1つまたは複数のステップに関連付けられた他の専門家)に第2の提示を表示するように構成された第2のデバイス(例えば、VR/MR手術支援デバイス14508)をさらに含んでよい。第2のユーザは、整形外科手術手順に関する手術支援を提供するために手順中に連絡を受けてよい。本開示によると、第2のデバイスのユーザを十分に教育するために、第2のデバイスは、整形外科手術手順の1つまたは複数の、前に実行されたステップに関して第2のユーザに情報を与える、または教育するコンテンツを表示するようにさらに構成される。
場合によっては、第1のデバイス(例えば、MR手術デバイス14504)は、第2のデバイス(例えば、VR/MR手術支援デバイス14508)の第2のユーザから手術支援を引き出すように構成される。しかしながら、手術支援は、電話、Eメール、テキスト、または任意の他のメッセージを介して等、他の方法で引き出すこともできる。例として、「情報提供」機能14505は、患者のスキャンもしくは患者の画像データのセグメント化、整形外科手術手順の1つまたは複数の、前に実行されたステップに関連する情報、前に使用された手術用ツールに関連する情報、埋め込まれるデバイスに関連する情報、整形外科手術手順で使用されるジグもしくはガイドに関連する情報、術前計画に関連する情報、整形外科手術手順の前に実行されたステップの1つまたは複数のタイミングに関連する情報、または整形外科手術手順の前に実行されたステップの1つまたは複数に関連する患者データ、のうちの1つまたは複数を含んでよい。場合によっては、「情報提供」機能14505は、CTスキャン、患者の解剖学的構造の3D再構成、手術計画もしくは計画情報、患者の年齢、患者の体重、患者のバイタル情報、または任意の他の患者データ等、手術の前に取得された患者データを含んでよい。場合によっては、MR手術デバイス14504は、手術のステップを自動的に追跡してよく、この場合、「情報提供」機能は、手術手順の現在のステップと前に実行されたステップとを識別する情報を含んでよい。
さらに、上記のように、視覚支援14507は、術中教育も支援してよく、教育プロセスの加速に特に有用であり得る。これは、進行中の手術中、重要となり得る。従って、整形外科手術支援教育コンテンツ14506は、前に実行した手術ステップの1つまたは複数に関連付けられた1つまたは複数の画像、前に実行した手術ステップの1つまたは複数の1つまたは複数のビデオ、インプラントのために準備された患者の準備された解剖学的表面の1つまたは複数の画像またはビデオ、計画された手術ステップのアニメーションまたは図、手術計画の1つまたは複数の画像またはビデオ、及び、整形外科手術手順の1つまたは複数の画像またはビデオ等の視覚支援14507を含んでよい。
いくつかの例では、「情報提供」機能14505及び/または視覚支援147は、整形外科手術手順の1つまたは複数の画像またはビデオを含んでよく、これらの画像またはビデオは、整形外科手術手順中にMR手術デバイスによってキャプチャされてよい、または、整形外科手術手順中、手術室にある他のカメラもしくは他のMRデバイスによってキャプチャされてよい。VR/MR手術支援デバイス14508のユーザによる素早く効率的な確認を容易にするために、画像またはビデオは、時間インデックスを付けられてよい。または、場合によっては、画像またはビデオは、VR/MR手術支援デバイス14508が特定の手術ステップまたは段階を選択して、そのステップまたは段階で記録された画像またはビデオを見ることができるように、手術ステップまたは段階に基づいてインデックス付けされてよい。ステップまたは段階は、典型的に画像で示される術前計画ステップと、ビデオまたは画像で示され得る術中ステップとを含んでよい。
いくつかの例では、コンテンツ14506が、VR/MR手術支援デバイス14508が、外科医(または、看護師もしくは技術者等、部屋にいる他の人)の視点、または部屋のカメラからの視点で見ることができるように、手術室にあるカメラによって、または、MR手術デバイス14504上の1つまたは複数のカメラによって取得されてよい。このようなコンテンツはまた、手順中、外科医に提示された任意の仮想画像を含んでよく、いくつかの例では、VR/MR手術支援デバイス14508は、患者の肩の解剖学的構造、または患者の肩の解剖学的構造及び仮想画像を見るために、仮想画像を有効または無効にすることができる。また、仮想の解剖学的モデルは、仮想手術計画を示すために提示することができ、VR/MR手術支援デバイス14508はまた、仮想手術計画、骨モデルのみ、骨モデルに加えて仮想ガイダンス(例えば、リーミング、切断、ドリルによる穴開け、ネジ留め、または他の配置マーカを支援する仮想要素)を選択的に見ることができてよい。さらに他の場合では、VR/MR手術支援デバイス14508は、仮想手術計画と骨モデルと仮想ガイダンス機能とを選択的に見ることができてよい。このようなコンテンツは、手順または計画段階中、記録されてよく、画像及びビデオとして記憶されてよく、時間インデックスまたはタスクインデックスを付ける(例えば、関節窩リーミング、関節窩インプラント配置等、ワークフローの時点にインデックスを付ける)ことができる。このようなコンテンツはまた、解剖学的手順のためのプレート、または、逆解剖学的手順、上腕骨切断、上腕骨インプラント配置のためのヘミ(hemi)(例えば、解剖学的手順のためのステム付きもしくはステムレスのヘミ、または、逆解剖学的手順のためのステム付きもしくはステムレスのプレート)のような物、及び/または他の物を識別してよい。
「情報提供」機能14505及び/または視覚支援147は、リモートの外科医またはVR/MR手術支援デバイス14508を着用している他の術中手術参加者に情報を与えるまたは教育する機能を含んでよい。さらに、場合によっては、教育コンテンツ14506はまた、MR手術デバイス14504を着用している人を教育するためにMR/VR手術支援デバイス14508の着用者を支援できる機能を含んでよい。言い換えると、手術の以前のステップに関して「情報提供」され、十分に教育された後、VR/MR手術支援デバイス14508は、専門家の支援をMR手術デバイス14504のユーザに提供するのを支援できる機能を提示してよい。例えば、教育コンテンツ14506は、MR/VR手術支援デバイス14508によってアクセスできて、MR手術デバイス14504に提示することができるビデオクリップ(手術のビデオクリップまたは類似の手術のビデオクリップ等)のアーカイブを含んでよい。さらに、視覚支援14507は、このようなビデオクリップ、または、場合によっては、問題解決ビデオのアーカイブを含んでよい。場合によっては、VR/MR手術支援デバイス14508は、VR/MR手術支援デバイス14508の着用者がMR手術デバイス14504のユーザを支援するデモンストレーションを提示できるように、仮想モデルまたは他の仮想要素に対する制御を与えられてよい。例えば、MR手術デバイス14504が、患者の現実の解剖学的構造へ位置合わせされた解剖学的要素の仮想モデル(例えば、実際の患者の関節窩骨へ位置合わせされた患者の関節窩の仮想モデル)を提示する場合、VR/MR手術支援デバイス14508は、VR/MR手術支援デバイス14508が仮想モデルを操作できる(例えば、ドリル穴の箇所またはリーミング軸の箇所をデモンストレーションする)ように仮想モデルに対する制御を与えられてよい。場合によっては、VR/MR手術支援デバイス14508がモデルに対して行う操作はいずれも、患者の解剖学的構造へ位置合わせされた対応する位置合わせされたモデルに対する操作としてMR手術デバイス14504に示されてよい。従って、VR/MR手術支援デバイスは、VR/MR手術支援デバイス14508に提示された仮想モデルを空間で操作してよく、操作は、MR手術デバイス14504で見ることができる他の仮想モデルに関してMR手術デバイス14504に提示されてよく、手術室にあり、MR手術デバイス14504によって見ることができる患者の解剖学的構造へも位置合わせされてよい。このように、例えば、VR/MR手術支援デバイス14508は、仮想モデルに対して仮想要素を提示することができ、このような仮想要素は、手術室の実際の患者の解剖学的構造に対して見えるように、MR手術デバイス14504に見えてよい。いくつかの例では、コンテンツ14508内に提示された仮想要素は、図127のMR教育コンテンツ12706に関して前述した仮想要素(または、前述した仮想要素の組み合わせ)のいずれをも含んでよい。
場合によっては、VR/MR手術支援デバイス14508は、VR/MR手術支援デバイス14508のユーザの術中教育を支援する選択可能な要素のメニューと共に構成されてよい。例えば、VR/MR手術支援デバイス14508は、進行中の手術に関連付けられた複数の教育コンテンツ要素に対応する複数の選択可能な仮想要素を提示するように構成されてよく、仮想要素の1つを選択すると、第2のデバイスは、手術手順に関連付けられた前に実行されたステップの1つまたは複数に関して第2のユーザを教育するように構成される。
さらに、場合によっては、患者の解剖学的構造の仮想モデルに対するVR/MR手術支援デバイス14508による空間での操作は、手術室の患者の解剖学的構造へ位置合わせされた、位置合わせ済み仮想モデルに対する仮想操作としてMR手術デバイス14504には見えてよい。例えば、VR/MR手術支援デバイス14508のユーザは、仮想モデルに対して仮想リーミング軸の所望の箇所を空間でデモンストレーションしてよく、このデモンストレーションは、MR手術デバイス14504が見ると、仮想モデルは患者の解剖学的構造へ位置合わせされているので、患者の解剖学的構造に対して正確に配置されている仮想リーミング軸として、MR手術デバイス14504に表示される。このタイプのデモンストレーションは、VR/MR手術支援デバイス14508のユーザが、MR手術支援デバイス14504のユーザに専門家の支援を提供するために非常に有用であり得る。
いくつかの例では、可視化デバイス213は、整形外科手術の前に実行されたステップに関してユーザを教育するように構成されてよい。この例では、可視化デバイスは、VR/MR手術支援デバイス14508に対応してよく、1つまたは複数の仮想要素を生成するように構成された1つまたは複数のプロセッサ514と、画面520とを含んでよく、画面520は、複合現実提示の一部としてユーザに1つまたは複数の仮想要素を提示するように構成された透明な複合現実ディスプレイ画面(シースルーのホログラフィックレンズ等)を含んでよく、1つまたは複数の仮想要素は、整形外科手術手順の1つまたは複数の前に実行されたステップに関してユーザを教育する教育コンテンツを規定する。場合によっては、可視化デバイス213は、支援の要求に応答して、整形外科手術手順の前に実行されたステップに関してユーザを教育するように構成されてよい。
非制限的な例として、術中手術教育が、手術手順中、専門手術支援者(リモートにいて、連絡を受けて支援を提供する専門外科医等)を教育するのに有用であり得る教育コンテンツは、患者のスキャンもしくは患者の画像データのセグメント化、前に実行した手術ステップに関連する情報、前に使用された手術用ツールに関連する情報、埋め込まれるデバイスに関連する情報、整形外科手術手順で使用されるジグもしくはガイドに関連する情報、インプラントのために準備された患者の準備された解剖学的表面の1つまたは複数の画像またはビデオ、術前計画に関連する情報、前に実行した手術ステップに関連する1つまたは複数の画像、前に実行した手術ステップの1つまたは複数のビデオ、前に実行した手術ステップのタイミングに関連する情報、前に実行した手術ステップに関連する患者データ、計画された手術ステップのアニメーションまたは図、手術計画の1つまたは複数の画像またはビデオ、及び、整形外科手術手順の1つまたは複数の画像またはビデオのようなものを含んでよい。
場合によっては、可視化デバイス213の画面520は、複数の教育コンテンツ要素に対応する複数の選択可能な仮想要素を提示するように構成されてよく、仮想要素の1つを選択すると、可視化デバイス213は、手術に関連する前に実行されたステップの1つまたは複数に関してユーザに情報を与えるように構成されてよい。画面520は、例えば、シースルーのホログラフィックレンズ等、透明の複合現実ディスプレイ画面を含んでよい。
いくつかの例では、方法は、整形外科手術手順のステップで第1のユーザを支援するように第1のデバイスに第1の複合現実提示を提示することと、整形外科手術に関して手術支援を引き出すことと、手術支援を引き出すことに応答して、第2の複合現実デバイスまたは仮想現実デバイスを介して教育コンテンツを提示することとを含んでよく、ここで、教育コンテンツは、整形外科手術手順の1つまたは複数の前に実行されたステップに関する情報を含む。
VR/MR手術支援デバイス14508の視点から、方法は、整形外科手術手順の支援の要求を受信することと、要求の受信に応答して、複合現実デバイスまたは仮想現実デバイスを介して教育コンテンツを提示することとを含んでよく、ここで、教育コンテンツは、整形外科手術手順の1つまたは複数の前に実行されたステップに関する情報を含む。教育コンテンツを受信し、学ぶと、VR/MR手術支援デバイス14508のユーザは、整形外科手術手順に関してる教育された専門家の支援を与えるのに必要なものをより十分に備えることになる。
場合によっては、VR/MR手術支援デバイス14508のリモートユーザは、手術ワークフローの一部として、MR手術デバイス14504または手術室にある他のデバイスによって連絡されてよく、場合によっては、手術ワークフローの規定されたステップで自動的に連絡されてよい。ローカルのMRデバイスは、手術ワークフローの現在の段階を検出してよく、手順の特定のステップに関してVR/MR手術支援デバイス14508のユーザに手術支援を要求してよい。この場合、VR/MR手術支援デバイス14508は、手術ワークフローの現在の段階に基づいて自動的に連絡されてよい。このように、VR/MR手術支援デバイス14508を使用する大勢の外科専門医が、専門家の手術支援が必要な時のみ、外科専門医が関与できるように、手術手順の規定の段階で相談を受けることができる。
場合によっては、VR/MR手術支援デバイス14508のユーザは、手順の特定のステップで手術セッション中にMR手術デバイス14504に接続されてよい。ローカルの手術参加者は、特定のステップでVR/MR手術支援デバイス14508のユーザに支援を求めて手動で呼び出すことができる、または、VR/MR手術支援デバイス14508に連絡するための呼び出しもしくは他の方法は、手術ワークフローの現在の段階またはステップに基づいてMR手術デバイス14504によって自動的であってよい。
また、手術ワークフロープロセスが、MR手術デバイス14504によって使用されて、VR/MR手術支援デバイス14508に支援を求める場合、場合によっては、VR/MR手術支援デバイス14508は、近い将来、支援を必要とするという事前通告をMR手術デバイス14504によって与えられてよい。例えば、手術の現在のワークフローに基づいて、1つまたは複数のローカルのMRデバイス(MR手術デバイス14504等によって)は、VR/MR手術支援デバイス14508に連絡して、今後、支援が必要であることを示してよい。MR手術デバイス14504による支援のこの要求の一部として、VR/MR手術支援デバイス14508は、支援が必要となる時の通知を与えるカウントダウン等、事前支援が必要となる時の警告または通知をMR手術デバイス14504によって与えられてよい。人工知能を使用して、現在進行中の手術支援の現在のステップまたは段階に基づいて(且つ、以前行われた手術手順に関する情報に基づいて)(手順の規定のステップまたは段階の)支援が必要な時の予測を提供してよい。今後のステップまたは段階が生じる時のより良い推定を提供し(それによって、VR/MR手術支援デバイス14508のユーザによる今後の手術支援を要求、要望、または計画する)ように、画像検出及び音声検出が、MR手術デバイス14504によって使用されて、手術手順の現在のステップまたは段階を規定または確認してよい。人工知能が、MR手術デバイス14504が、例えば、現在進行している手術手順の現在のステップまたは段階に基づいて手術手順の今後のステップまたは段階のプロセスを学習し、タイミングを予測するMR手術デバイス14504が、VR/MR手術支援デバイス14508のユーザを呼び出すタイミングをガイドし予測するのを支援してよい。手順を記録することと、音声、画像、作業ステップ、または手順の他の側面を識別することにより、MR手術デバイス14504によって実施される人工知能がVR/MR手術支援デバイス14508からの支援が必要または要望される時を予測するのを可能にし得る。入力(音声、画像、作業ステップ等)が、現在の手術のワークフローステップと相関されてよく、これは次に、MR手術デバイス14504によって使用されて、今後のワークフローステップのタイミングを予測してよい。これは、VR/MR手術支援デバイス14508のユーザに通知またはスケジューリングを提供するのを支援することができ、リモート参加者からの支援を必要とする時、手術手順のダウンタイムを回避することができる。
図146及び図147は、進行中の手術手順の特定の詳細に関してリモートユーザの教育を支援する術中教育技術を示すフロー図である。図146に示すように、外科医または他の手術参加者が着用する可視化デバイス213は、整形外科手術手順のステップでユーザを支援する複合現実を提示してよい(14601)。可視化デバイス213(または、他の手段)は、整形外科手術手順に対する手術支援を引き出してよい(14602)。術中教育コンテンツが次に、MRデバイスまたはVRデバイスを介して手術支援に提供されて、整形外科手術手順の前のステップに関して外科専門医を教育してよい(14603)。このように、外科専門医(例えば、MRまたはVRを使用して術中に相談を受ける専門外科医)は、手順に関する情報を教育的に提供されて、手術支援が有用及び正確であることを確実にすることができる。
図147は、図145に示す手術システム14501の例示のVR/MR手術支援デバイス14508の視点から例示の方法を示す。図147に示すように、VR/MR手術支援デバイス14508(または、VR/MR手術支援デバイス14508のユーザ)は、整形外科手術手順の支援の要求を受信する(14701)。いくつかの例では、VR/MR手術支援デバイス14508は、MR手術デバイス14504から支援の要求を受信する。他の例では、支援の要求は、MR手術デバイス14504からVR/MR手術支援デバイス14508のユーザへの電話、Eメール、テキストメッセージ、または任意の他のメッセージを介して等、VR/MR手術支援デバイス14508のユーザへの要求を含んでよい。また、いくつかの例では、MR手術デバイス14504のユーザ(例えば、ローカルの外科医)による発言に応答して、MR手術デバイス14504が、音声をテキストに変換する技術を使用して、テキストベースの要求をVR/MR手術支援デバイス14508のユーザに送信することが望ましい場合がある。音声をテキストに変換する技術は、ローカルの外科医が手を使ってVR/MR手術支援デバイス14508のユーザと通信することができない時特に、有用であり得る。場合によっては、音声をテキストに変換する技術が、文書による要約、現在の状態もしくは手順、手順の1つまたは複数の事象、手術の進行、及び/または手術手順中に起こった問題を伝えるために、MR手術デバイス14504によって使用されてよい。
いくつかの例では、MR手術デバイス14504は、MR手術デバイス14504のユーザからユーザ入力の指示を受信することに応答して、VR/MR手術支援デバイス14508に支援の要求を自動的に送信するように構成されてよい。例えば、MR手術デバイス14504のユーザは、仮想アイコンまたはウィジェットを選択して、MR手術デバイス14504に、支援の要求をVR/MR手術支援デバイス14508に送信させてよい。いくつかの例では、MR手術デバイス14504は、MR手術デバイス14504のユーザが「専門家に連絡したい」と言う発話、または何らかの他のトリガフレーズの発話を検出することに応答して、支援の要求をVR/MR手術支援デバイス14508に送信してよい。MR手術デバイス14504が自動的に支援の要求を送信する例では、本明細書に記載の「情報提供」機能のいくつかまたは全てが、同様に、VR/MR手術支援デバイス14508に自動的に通信されてよい。
例えば、支援の要求に応答して、VR/MR手術支援デバイス14508は、整形外科手術手順の前のステップに関する術中教育コンテンツを提示するように構成される(14702)。前のステップは、例えば、整形外科手術手順に関して既に行われた手術の、または術前ステップのいずれかを含んでよい。VR/MR手術支援デバイス14508を使用して、専門家は次に、整形外科手術手順に関して教育された専門家の支援を伝えてよい(14703)。
ここでも、手術手順中に専門手術支援者(リモートにいて支援を提供するように連絡を受けた専門外科医等)に情報を与えるための術中手術教育に有用であり得るコンテンツのいくつかの非制限的で非包括的な例には、患者のスキャンもしくは患者の画像データのセグメント化、進行中の整形外科手術手順の前に実行されたステップに関連する情報、前に使用された手術用ツールに関連する情報、埋め込まれるデバイスに関連する情報、整形外科手術手順で使用されるジグもしくはガイドに関連付けられた情報、インプラントのために準備された患者の準備された解剖学的表面の1つまたは複数の画像またはビデオ、術前計画に関連する情報、進行中の整形外科手術手順の前に実行されたステップに関連する1つまたは複数の画像、進行中の整形外科手術手順の前に実行されたステップの1つまたは複数のビデオ、進行中の整形外科手術手順の前に実行されたステップのタイミングに関連する情報、前に実行した手術ステップに関連する患者データ、計画された手術ステップのアニメーションまたは図、手術計画の1つまたは複数の画像またはビデオ、及び、整形外科手術手順の1つまたは複数の画像またはビデオ等のものが含まれてよい。
また、いくつかの例では、コンテンツ14506は、整形外科手術手順の1つまたは複数の画像またはビデオを含んでよく、これらの画像またはビデオは、整形外科手術手順中にMR手術デバイス14504によってキャプチャされてよい、または、整形外科手術手順中に手術室にある別のカメラもしくは別のMRデバイスによってキャプチャされてよい。画像またはビデオは時間インデックスを付けられてよい。または、場合によっては、画像またはビデオは、VR/MR手術支援デバイス14508が、特定の手術ステップまたは段階を選択して、これらのステップまたは段階で記録された画像またはビデオを見ることができるように、手術ステップまたは段階に基づいてインデックスを付けられてよい。ステップまたは段階は、典型的に画像と共に示される術前計画ステップと、ビデオまたは画像と共に示され得る術中ステップとを含んでよい。いくつかの例では、VR/MR手術支援デバイス14508は、MR手術デバイス14504が見る仮想要素またはビューを提示してよい。このような例では、VR/MR手術支援デバイス14508はまた、(例えば、VR/MR手術支援デバイス14508が見た提示上に、上または側面図で)MR術前計画モデルを提示してよい。
VR/MR手術支援デバイス14508は、1つのデバイスとして示されるが、複数のVR/MR手術支援デバイス14508を有することも可能で、各VR/MR手術支援デバイス14508は、手術手順の異なる段階で必要とされる異なる外科専門医に関連付けられてよい。複数のVR/MR手術支援デバイス14508は、専門家のチームまたはコミュニティが支援を提供するのを可能にし得る。複数の専門家は、特定の課題で集合的に支援してよい、または、課題は、チームの特定のメンバーに割り当てられてよい、または、課題は、専門家のコミュニティに割り当てられてよい。例えば、ローカルの外科医は、リモート外科医のチームから支援を引き出してよく、チームのメンバーは、VR/MR手術支援デバイス14508の1つを介して支援を提供する要求を受け入れてよい。いくつかの例では、支援の要求は、先着順で、MR手術デバイス14504によってリモート参加者に割り当てられてよい。いくつかの例では、支援の要求は、支援チームの特定のメンバーの専門知識に基づいて、MR手術デバイス14504によって支援チームの特定のメンバーに割り当てられてよい。
いくつかの例では、整形外科手術手順に関して教育された専門家の支援を伝えること(14703)は、仮想情報を提示することを含む。さらに、いくつかの例では、仮想情報は、支援を提供する人に関連付けられた第1のデバイス(VR/MR手術支援デバイス14508)によって見ることができ、操作可能である、また、仮想情報は、支援を要求する人に関連付けられた第2のデバイス(例えば、MR手術デバイス14504)によって患者の解剖学的構造に対して見ることができる。例えば、VR/MR手術支援デバイス14508は、仮想モデルを自由空間に提示し、仮想モデルは、支援を提供しているユーザによって操作され、この仮想モデルは、MR手術デバイス14504に見えてよく、MR手術デバイス14504の視点からの患者の解剖学的構造によって位置合わせされてよい。より一般的に言うと、図127のMR教育コンテンツ12706に関して前述した任意の仮想コンテンツ、仮想モデルまたは仮想要素が、例えば、VR/MR手術支援デバイス14508のユーザに情報を与えるために、または、VR/MR手術支援デバイス14508のユーザからMR手術デバイス14504のユーザに仮想支援による支援を提供するために、整形外科手術支援のコンテンツ14506内に含まれてよい。
技術を限られた数の例に関して開示したが、本開示の恩恵を有する当業者は、これらの例から多くの修正及び変形を理解されよう。例えば、記載した任意の理にかなった任意の組み合わせを行ってよいことが企図される。添付の請求項は、発明の真の原理及び範囲内に入るとして、このような修正及び変形を対象に含めることを意図している。
例に応じて、本明細書に記載の技術のいずれのある特定の行為または事象も、異なる順で行うことができ、追加、統合、または、完全に取り除いてよい(例えば、記載した全ての行為または事象が、技術の実践に必要なわけではない)ことを認識されたい。さらに、ある特定の例では、行為または事象は、順次ではなく、同時に、例えば、マルチスレッド処理、インタラプト処理、または複数のプロセッサを通して行われてよい。
1つまたは複数の例において、記載の機能は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせで実施されてよい。ソフトウェアで実施される場合、機能は、コンピュータ可読媒体上で1つまたは複数の命令またはコードとして記憶または送信されてよく、ハードウェアベースの処理ユニットによって実行されてよい。コンピュータ可読媒体は、コンピュータ可読記憶媒体を含んでよく、コンピュータ可読記憶媒体は、例えば、通信プロトコルに従ってコンピュータプログラムの1つの場所から他の場所への転送を容易にする任意の媒体を含むデータ記憶媒体または通信媒体等の有形媒体に対応する。このように、コンピュータ可読媒体は一般に、(1)非一時的な有形のコンピュータ可読記憶媒体、または(2)信号もしくは搬送波等の通信媒体に対応してよい。データ記憶媒体は、本開示に記載の技術を実施するための命令、コード及び/またはデータ構造を読み出すために1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセス可能な任意の入手可能な媒体であってよい。コンピュータプログラム製品は、コンピュータ可読媒体を含んでよい。
制限ではなく、例示として、このようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD-ROM、もしくは他の光学ディスクストレージ、磁気ディスクストレージ、もしくは他の磁気ストレージデバイス、フラッシュメモリ、または、所望のプログラムコードを命令またはデータ構造の形態で記憶するように使用でき、且つ、コンピュータによってアクセスできる任意の他の媒体を含み得る。また、任意の接続が、コンピュータ可読媒体と呼ばれて適切である。例えば、命令が、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者線(DSL)、または、赤外線、ラジオ、及びマイクロ波等の無線技術を用いて、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、または赤外線、ラジオ、及びマイクロ波等の無線技術は、媒体という定義に含まれる。しかしながら、コンピュータ可読記憶媒体及びデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含まず、非一時的な有形媒体を対象にすることを理解されたい。本明細書に記載される場合、ディスク(disk)及び(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスク、及びブルーレイディスクを含み、ここで、ディスク(disk)は通常、データを磁気的に再生し、ディスク(disc)は、レーザを用いてデータを光学的に再生する。上述の媒体の組み合わせも、コンピュータ可読媒体の範囲内に含まれるものとする。
本開示に記載の動作は、1つまたは複数のプロセッサによって行われてよく、1つまたは複数のプロセッサは、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、または他の同等の集積もしくは別個の論理回路等、固定機能処理回路、プログラム可能回路、または、これらの組み合わせとして実施されてよい。固定機能回路は、特定の機能を提供し、実行できる動作に関して前もってセットされた回路を指す。プログラム可能回路は、様々なタスクを行うようにプログラムすることができ、実行できる動作において柔軟な機能を提供する回路を指す。例えば、プログラム可能回路は、ソフトウェアまたはファームウェアの命令によって規定された方法でプログラム可能回路を動作させるソフトウェアまたはファームウェアによって指定された命令を実行してよい。固定機能回路は、ソフトウェア命令を実行して、(例えば、パラメータを受信、またはパラメータを出力)してよいが、固定機能回路が行う動作のタイプは一般的に変化しない。従って、「プロセッサ」及び「処理回路」という用語は、本明細書で使用される場合、前述の構造のいずれか、または、本明細書に記載の技術の実施に適した任意の他の構造を指してよい。
様々な例を記載した。これらの例及び他の例は、次の請求項の範囲内にある。
以下に、出願当初の特許請求の範囲に記載の事項を、そのまま、付記しておく。
[C1]
整形外科医が着用するエクステンデッドリアリティ(XR)可視化デバイスにより、表示のためのXR可視化を出力することであって、前記XR可視化は、1つまたは複数の仮想チェックリスト項目のセットを含み、前記1つまたは複数の仮想チェックリスト項目のそれぞれは、整形外科手術のステップのチェックリストの項目に対応する、前記XR可視化を出力すること、
前記XR可視化デバイスにより、前記仮想チェックリスト項目のセットの仮想チェックリスト項目を選択する前記整形外科医のコマンドを検出すること、及び
前記コマンドを検出することに応答して、前記XR可視化デバイスにより、前記選択された仮想チェックリスト項目に対応する前記整形外科手術のステップに関する追加情報を含むように前記XR可視化を更新すること
を含む、方法。
[C2]
前記コマンドは、第1のコマンドであり、前記方法は、
前記XR可視化デバイスにより、前記整形外科医からの、前記整形外科手術の前記ステップに完了のマークを付ける第2のコマンドを検出すること、及び
前記第2のコマンドに基づいて、前記XR可視化デバイスにより、前記整形外科手術のステップの前記チェックリストの次のステップに対応する仮想チェックリスト項目を含むように前記XR可視化を更新すること
をさらに含む、C1に記載の方法。
[C3]
前記整形外科医は、第1の人であり、
前記方法は、
前記整形外科医からの、前記整形外科手術の前記ステップに完了のマークを付ける前記第2のコマンドに応答して、第2の人に関連付けられたコンピューティングデバイスにより、前記整形外科手術の前記ステップが完了したことを確認するように前記第2の人に促すことであって、前記第2の人に関連付けられた前記コンピューティングデバイスは、前記XR可視化デバイスに通信可能に結合されている、前記第2の人に促すこと
をさらに含み、
前記整形外科手術の前記ステップの前記チェックリストの前記次のステップに対応する前記仮想チェックリスト項目を含むように前記XR可視化を更新することは、前記整形外科手術の前記ステップが実際に完了していると前記第2の人が確認することに応答して、前記XR可視化デバイスにより、前記整形外科手術のステップの前記チェックリストの前記次のステップに対応する前記仮想チェックリスト項目を含むように前記XR可視化を更新することを含む、
C2に記載の方法。
[C4]
前記追加情報を含むように前記XR可視化を更新することは、前記XR可視化デバイスにより、前記整形外科手術の前記ステップに関連付けられた1つまたは複数の仮想3次元物体を含むように前記XR可視化を更新することを含む、C1~3のいずれかに記載の方法。
[C5]
前記1つまたは複数の仮想3次元物体は、前記整形外科手術の前記ステップに関与する骨の1つまたは複数の仮想3次元モデルを含む、C4に記載の方法。
[C6]
前記整形外科手術の前記ステップに関連付けられた前記1つまたは複数の仮想3次元物体を含むように前記XR可視化を更新することは、前記XR可視化デバイスにより、前記1つまたは複数の仮想3次元物体に適用される前記整形外科手術の前記ステップのアニメーションを前記整形外科医に見せるように前記XR可視化を更新することを含む、C4~6のいずれかに記載の方法。
[C7]
前記コマンドは、第1のコマンドであり、
前記方法は、
前記整形外科医からの第2のコマンドに応答して、前記XR可視化デバイスにより、前記1つまたは複数の仮想3次元物体を回転またはスケール調整するように前記XR可視化を更新すること
をさらに含む、C4~6のいずれかに記載の方法。
[C8]
前記整形外科手術の前記ステップは、前記患者に固有である、C1~7のいずれかに記載の方法。
[C9]
前記XR可視化デバイスは、複合現実(MR)可視化デバイスであり、前記XR可視化は、MR可視化である、C1~8のいずれかに記載の方法。
[C10]
前記整形外科手術は、整形外科的関節修復手術である、C1~9のいずれかに記載の方法。
[C11]
前記整形外科的関節修復手術は、標準的全肩関節形成または逆肩関節形成のうちの1つを含む、C10に記載の方法。
[C12]
前記整形外科手術の前記ステップは、関節窩骨の準備及び/または上腕骨の準備に関する1つまたは複数の詳細を含む、C11に記載の方法。
[C13]
前記コマンドは、非接触型コマンドであり、
前記コマンドは、前記整形外科医がいずれの固体物体にも触れずに実行される、
C1~11のいずれかに記載の方法。
[C14]
エクステンデッドリアリティ(XR)可視化デバイスを含むシステムであって、前記XR可視化デバイスは、
整形外科医に表示するためにXR可視化を出力するように構成されたディスプレイデバイスであって、前記XR可視化は、1つまたは複数の仮想チェックリスト項目のセットを含み、前記1つまたは複数の仮想チェックリスト項目のそれぞれは、整形外科手術のステップのチェックリストの項目に対応する、前記ディスプレイデバイス、
前記整形外科医の、前記仮想チェックリスト項目のセットの仮想チェックリスト項目を選択するコマンドを検出するように構成された1つまたは複数のセンサであって、前記コマンドは、前記整形外科医がいずれの固体物体にも触れずに実行される、前記1つまたは複数のセンサ、及び
前記コマンドを検出することに応答して、前記選択された仮想チェックリスト項目に対応する前記整形外科手術のステップに関する追加情報を含むように前記XR可視化を更新するように構成された1つまたは複数の処理回路
を含む、前記システム。
[C15]
前記コマンドは、第1のコマンドであり、前記1つまたは複数のセンサは、前記整形外科医からの、前記整形外科手術の前記ステップに完了のマークを付ける第2のコマンドを検出するようにさらに構成され、
1つまたは複数の処理回路が、前記第2のコマンドに基づいて、前記整形外科手術のステップの前記チェックリストの次のステップに対応する仮想チェックリスト項目を含むように前記XR可視化を更新するように構成される、
C14に記載のシステム。
[C16]
前記整形外科医は、第1の人であり、
前記システムは、
第2の人に関連付けられたコンピューティングデバイスをさらに含み、前記コンピューティングデバイスは、前記整形外科医からの、前記整形外科手術の前記ステップに完了のマークを付ける前記第2のコマンドに応答して、前記整形外科手術の前記ステップが完了したことを確認するように前記第2の人に促すように構成された1つまたは複数の処理回路を含み、前記第2の人に関連付けられた前記コンピューティングデバイスは、前記XR可視化デバイスに通信可能に結合されており、
前記XR可視化デバイスの前記1つまたは複数の処理回路は、前記整形外科手術のステップの前記チェックリストの前記次のステップに対応する前記仮想チェックリスト項目を含むように前記XR可視化を更新する一部として、前記XR可視化デバイスの前記1つまたは複数の処理回路が、前記整形外科手術の前記ステップが実際に完了していると前記第2の人が確認することに応答して、前記整形外科手術のステップの前記チェックリストの前記次のステップに対応する前記仮想チェックリスト項目を含むように前記XR可視化を更新するように、構成される、
C15に記載のシステム。
[C17]
前記XR可視化デバイスの前記1つまたは複数の処理回路は、前記追加情報を含むように前記XR可視化を更新することの一部として、前記XR可視化デバイスの前記1つまたは複数の処理回路が、前記整形外科手術の前記ステップに関連付けられた1つまたは複数の仮想3次元物体を含むように前記XR可視化を更新するように構成される、C14~16のいずれかに記載のシステム。
[C18]
前記1つまたは複数の仮想3次元物体は、前記整形外科手術の前記ステップに関与する骨の1つまたは複数の仮想3次元モデルを含む、C17に記載のシステム。
[C19]
前記XR可視化デバイスの前記1つまたは複数の処理回路は、前記整形外科手術の前記ステップに関連付けられた前記1つまたは複数の仮想3次元物体を含むように前記XR可視化を更新する一部として、前記1つまたは複数の処理回路が、前記1つまたは複数の仮想3次元物体に適用される前記整形外科手術の前記ステップのアニメーションを前記整形外科医に見せるように前記XR可視化を更新するように構成されるように、構成される、C17~18のいずれかに記載のシステム。
[C20]
前記コマンドは、第1のコマンドであり、
前記XR可視化デバイスの前記1つまたは複数の処理回路は、前記整形外科医からの第2のコマンドに応答して、前記1つまたは複数の仮想3次元物体を回転またはスケール調整するように前記XR可視化を更新するようにさらに構成される
C17~19のいずれかに記載のシステム。
[C21]
前記整形外科手術の前記ステップは、前記患者に固有である、C14~20のいずれかに記載のシステム。
[C22]
前記XR可視化デバイスは、複合現実(MR)可視化デバイスであり、前記XR可視化は、MR可視化である、C14~21のいずれかに記載のシステム。
[C23]
前記整形外科手術は、整形外科的関節修復手術である、C14~2のいずれかに記載のシステム。
[C24]
前記整形外科的関節修復手術は、標準的全肩関節形成または逆肩関節形成の1つを含む、C23に記載のシステム。
[C25]
前記整形外科手術の前記ステップは、関節窩骨の準備及び/または上腕骨の準備に関する1つまたは複数の詳細を含む、C24に記載のシステム。
[C26]
前記コマンドは、非接触型コマンドであり、前記コマンドは、前記整形外科医がいずれの固体物体にも触れずに実行される、C14~25のいずれかに記載のシステム。
[C27]
C1~13のいずれかに記載の方法を実行する手段を含むシステム。
[C28]
実行されると、エクステンデッドリアリティ(XR)可視化デバイスにC1~13のいずれかに記載の方法を実行させる命令を記憶するコンピュータ可読媒体。

Claims (13)

  1. 整形外科医が着用するエクステンドリアリティ(XR)可視化デバイスにより、表示のためにXR可視化を出力することであって、前記XR可視化は、整形外科手術のステップのチェックリストにおける第1の仮想チェックリスト項目を含み、前記第1の仮想チェックリスト項目は、前記整形外科手術の第1のステップを説明するテキストを含む、前記XR可視化を出力すること、ここにおいて、前記整形外科医は、第1の人であり、
    前記XR可視化デバイスにより、前記整形外科医の、前記整形外科手術の前記第1のステップに完了のマークを付けるコマンドを検出すること、ならびに
    前記コマンドに基づいて、
    前記第1のステップが完了したことを示すデータを記憶すること、及び
    前記XR可視化デバイスにより、前記チェックリストにおける第2の仮想チェックリスト項目を含むように前記XR可視化を更新することであって、前記第2の仮想チェックリスト項目は、前記整形外科手術の次のステップを説明するテキストを含む、前記XR可視化を更新すること
    前記整形外科医からの、前記整形外科手術の前記第1のステップに完了のマークを付ける前記コマンドに応答して、第2の人に関連付けられたコンピューティングデバイスにより、前記整形外科手術の前記第1のステップが完了したことを確認するように前記第2の人に促すこと、前記第2の人に関連付けられた前記コンピューティングデバイスは、前記XR可視化デバイスに通信可能に結合されており、
    前記第2の仮想チェックリスト項目を含むように前記XR可視化を更新することは、前記整形外科手術の前記第1のステップが実際に完了したことを前記第2の人が確認することに応答して、前記XR可視化デバイスにより、前記第2の仮想チェックリスト項目を含むように前記XR可視化を更新することを含む
    を含む、方法。
  2. 前記コマンドは、第1のコマンドであり、前記方法は、
    前記第1のコマンドを検出する前に、前記XR可視化デバイスにより、前記第1の仮想チェックリスト項目を選択する第2のコマンドを検出すること、及び
    前記第2のコマンドに基づいて、前記XR可視化デバイスにより、前記整形外科手術の前記第1のステップに関する追加情報を含むように前記XR可視化を更新すること
    をさらに含む、請求項1に記載の方法。
  3. 前記方法は、前記XR可視化デバイスにより、前記整形外科手術の前記第1のステップに関連付けられた1つまたは複数の仮想3次元物体を含むように前記XR可視化を更新することを、さらに含む、請求項1~2のいずれかに記載の方法。
  4. 前記1つまたは複数の仮想3次元物体は、前記整形外科手術の前記ステップに関与する骨の前記1つまたは複数の仮想3次元モデルを含む、請求項3に記載の方法。
  5. 前記整形外科手術の前記第1のステップは、前記患者に固有である、請求項1~4のいずれかに記載の方法。
  6. 前記XR可視化デバイスは、複合現実(MR)可視化デバイスであり、前記XR可視化は、MR可視化である、請求項1~5のいずれかに記載の方法。
  7. 前記整形外科手術は、解剖学的全肩形成、または逆肩形成のうちの1つを含む、請求項1~6のいずれかに記載の方法。
  8. 前記コマンドは、非接触型コマンドであり、前記コマンドは、前記整形外科医がいずれの固体物体にも触れることなく実行される、請求項1~7のいずれかに記載の方法。
  9. 仮想手術計画が、前記整形外科手術の前記ステップを規定する情報を含み、前記整形外科手術の前記ステップは、患者の解剖学的構造への人工装具の取付のための前記患者の前記解剖学的構造の準備、または前記患者の前記解剖学的構造への前記人工装具の取付のうちの少なくとも1つを含む、請求項1~8のいずれかに記載の方法。
  10. 整形外科医が着用するエクステンドリアリティ(XR)可視化デバイスによって、表示のためにXR可視化を出力する手段であって、前記XR可視化は、整形外科手術のステップのチェックリストにおける第1の仮想チェックリスト項目を含み、前記第1の仮想チェックリスト項目は、前記整形外科手術の第1のステップを説明するテキストを含む、前記XR可視化を出力する手段、ここにおいて、前記整形外科医は、第1の人であり、
    前記XR可視化デバイスにより、前記整形外科医の、前記第1のステップに完了のマークを付けるコマンドを検出する手段、
    前記コマンドに基づいて、前記第1のステップが完了したことを示すデータを記憶する手段、及び
    前記コマンドに基づいて、前記XR可視化デバイスにより、前記チェックリストにおける第2の仮想チェックリスト項目を含むように前記XR可視化を更新する手段であって、前記第2の仮想チェックリスト項目は、前記整形外科手術の次のステップを説明するテキストを含む、前記XR可視化を更新する手段
    前記整形外科医からの、前記整形外科手術の前記第1のステップに完了のマークを付ける前記コマンドに応答して、第2の人に関連付けられたコンピューティングデバイスにより、前記整形外科手術の前記第1のステップが完了したことを確認するように前記第2の人に促す手段、前記第2の人に関連付けられた前記コンピューティングデバイスは、前記XR可視化デバイスに通信可能に結合されており、
    前記第2の仮想チェックリスト項目を含むように前記XR可視化を更新する手段は、前記整形外科手術の前記第1のステップが実際に完了したことを前記第2の人が確認することに応答して、前記XR可視化デバイスにより、前記第2の仮想チェックリスト項目を含むように前記XR可視化を更新する手段を含む
    を含む、システム。
  11. 請求項2~9のいずれかに記載の方法を行う手段をさらに含む、請求項10に記載のシステム。
  12. 命令を記憶するコンピュータ可読記憶媒体であって、前記命令は、実行されると、整形外科医が着用するエクステンドリアリティ(XR)可視化デバイスに、
    表示のためにXR可視化を出力させることであって、前記XR可視化は、整形外科手術のステップのチェックリストにおける第1の仮想チェックリスト項目を含み、前記第1の仮想チェックリスト項目は、前記整形外科手術の第1のステップを説明するテキストを含む、前記XR可視化を出力させること、ここにおいて、前記整形外科医は、第1の人であり、
    前記整形外科医の、前記第1のステップに完了のマークを付けるコマンドを検出すること、ならびに
    前記コマンドに基づいて
    前記第1のステップが完了したことを示すデータを記憶すること、及び
    前記チェックリストにおける第2の仮想チェックリスト項目を含むように前記XR可視化を更新することであって、前記第2の仮想チェックリスト項目は、前記整形外科手術の次のステップを説明するテキストを含む、前記XR可視化を更新すること、
    前記整形外科医からの、前記整形外科手術の前記第1のステップに完了のマークを付ける前記コマンドに応答して、第2の人に関連付けられたコンピューティングデバイスにより、前記整形外科手術の前記第1のステップが完了したことを確認するように前記第2の人に促すこと、前記第2の人に関連付けられた前記コンピューティングデバイスは、前記XR可視化デバイスに通信可能に結合されており、
    前記第2の仮想チェックリスト項目を含むように前記XR可視化を更新することは、前記整形外科手術の前記第1のステップが実際に完了したことを前記第2の人が確認することに応答して、前記XR可視化デバイスにより、前記第2の仮想チェックリスト項目を含むように前記XR可視化を更新することを含む
    を行わせる、前記コンピュータ可読記憶媒体。
  13. 実行されると、前記XR可視化デバイスに、請求項2~9のいずれかの方法を行わせる命令をさらに記憶する、請求項12に記載のコンピュータ可読記憶媒体。
JP2020571520A 2018-06-19 2019-06-13 整形外科手術のための仮想チェックリスト Active JP7247234B2 (ja)

Applications Claiming Priority (33)

Application Number Priority Date Filing Date Title
US201862687014P 2018-06-19 2018-06-19
US62/687,014 2018-06-19
US201862739406P 2018-10-01 2018-10-01
US62/739,406 2018-10-01
US201862778788P 2018-12-12 2018-12-12
US201862778791P 2018-12-12 2018-12-12
US201862778760P 2018-12-12 2018-12-12
US201862778797P 2018-12-12 2018-12-12
US201862778772P 2018-12-12 2018-12-12
US201862778796P 2018-12-12 2018-12-12
US201862778782P 2018-12-12 2018-12-12
US201862778774P 2018-12-12 2018-12-12
US201862778789P 2018-12-12 2018-12-12
US201862778778P 2018-12-12 2018-12-12
US201862778764P 2018-12-12 2018-12-12
US62/778,774 2018-12-12
US62/778,764 2018-12-12
US62/778,782 2018-12-12
US62/778,797 2018-12-12
US62/778,760 2018-12-12
US62/778,789 2018-12-12
US62/778,772 2018-12-12
US62/778,796 2018-12-12
US62/778,788 2018-12-12
US62/778,791 2018-12-12
US62/778,778 2018-12-12
US201962804383P 2019-02-12 2019-02-12
US201962804392P 2019-02-12 2019-02-12
US201962804402P 2019-02-12 2019-02-12
US62/804,392 2019-02-12
US62/804,402 2019-02-12
US62/804,383 2019-02-12
PCT/US2019/036978 WO2019245852A1 (en) 2018-06-19 2019-06-13 Virtual checklists for orthopedic surgery

Publications (2)

Publication Number Publication Date
JP2021527536A JP2021527536A (ja) 2021-10-14
JP7247234B2 true JP7247234B2 (ja) 2023-03-28

Family

ID=67108204

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020571520A Active JP7247234B2 (ja) 2018-06-19 2019-06-13 整形外科手術のための仮想チェックリスト
JP2020571533A Active JP7271579B2 (ja) 2018-06-19 2019-06-13 整形外科手術における複合現実支援を用いた手術支援

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020571533A Active JP7271579B2 (ja) 2018-06-19 2019-06-13 整形外科手術における複合現実支援を用いた手術支援

Country Status (6)

Country Link
US (24) US10987176B2 (ja)
EP (15) EP3810015A1 (ja)
JP (2) JP7247234B2 (ja)
CN (6) CN112584791A (ja)
AU (7) AU2019289081B2 (ja)
WO (18) WO2019245852A1 (ja)

Families Citing this family (309)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010121250A1 (en) 2009-04-17 2010-10-21 Arthrosurface Incorporated Glenoid resurfacing system and method
US11020189B2 (en) * 2012-10-02 2021-06-01 Radlink, Inc. System and method for component positioning by registering a 3D patient model to an intra-operative image
EP3628245A3 (en) 2013-10-10 2020-04-22 Imascap Method for designing and producing a shoulder surgery guide
US9629698B2 (en) * 2014-11-04 2017-04-25 James R. Glidewell Dental Ceramics, Inc. Method and apparatus for generation of 3D models with applications in dental restoration design
WO2016094826A1 (en) * 2014-12-11 2016-06-16 Think Surgical, Inc. Surveying tibial trials for knee anthroplasty
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
WO2017114834A1 (en) * 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery
JP7123031B2 (ja) 2016-07-15 2022-08-22 マコ サージカル コーポレーション ロボット支援再置換手技用のシステム
CN110248618B (zh) 2016-09-09 2024-01-09 莫比乌斯成像公司 用于在计算机辅助手术中显示患者数据的方法及系统
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP4300160A3 (en) 2016-12-30 2024-05-29 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
CA3049148A1 (en) * 2017-01-24 2018-08-02 Tietronix Software, Inc. System and method for three-dimensional augmented reality guidance for use of medical equipment
US20210295048A1 (en) * 2017-01-24 2021-09-23 Tienovix, Llc System and method for augmented reality guidance for use of equipment systems
US20210327303A1 (en) * 2017-01-24 2021-10-21 Tienovix, Llc System and method for augmented reality guidance for use of equipment systems
US20210327304A1 (en) * 2017-01-24 2021-10-21 Tienovix, Llc System and method for augmented reality guidance for use of equpment systems
WO2018156809A1 (en) * 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
EP3585254B1 (en) 2017-02-24 2024-03-20 Masimo Corporation Medical device cable and method of sharing data between connected medical devices
US10932705B2 (en) 2017-05-08 2021-03-02 Masimo Corporation System for displaying and controlling medical monitoring data
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US11166764B2 (en) 2017-07-27 2021-11-09 Carlsmed, Inc. Systems and methods for assisting and augmenting surgical procedures
DE102017218215B4 (de) * 2017-10-12 2024-08-01 Audi Ag Verfahren zum Betreiben einer am Kopf tragbaren elektronischen Anzeigeeinrichtung und Anzeigesystem zum Anzeigen eines virtuellen Inhalts
JP7282090B2 (ja) 2017-12-10 2023-05-26 マジック リープ, インコーポレイテッド 光学導波管上の反射防止性コーティング
KR20200100720A (ko) 2017-12-20 2020-08-26 매직 립, 인코포레이티드 증강 현실 뷰잉 디바이스용 인서트
US10846109B2 (en) * 2017-12-20 2020-11-24 Google Llc Suggesting actions based on machine learning
EP3735696A1 (en) * 2018-01-02 2020-11-11 Koninklijke Philips N.V. Animated position display of an oss interventional device
US11351007B1 (en) 2018-01-22 2022-06-07 CAIRA Surgical Surgical systems with intra-operative 3D scanners and surgical methods using the same
US10755676B2 (en) 2018-03-15 2020-08-25 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11439514B2 (en) 2018-04-16 2022-09-13 Carlsmed, Inc. Systems and methods for orthopedic implant fixation
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11250726B2 (en) * 2018-05-24 2022-02-15 Verily Life Sciences Llc System for simulation of soft bodies
US11885871B2 (en) 2018-05-31 2024-01-30 Magic Leap, Inc. Radar head pose localization
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
EP3810015A1 (en) * 2018-06-19 2021-04-28 Tornier, Inc. Mixed-reality surgical system with physical markers for registration of virtual models
WO2020010097A1 (en) 2018-07-02 2020-01-09 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11510027B2 (en) 2018-07-03 2022-11-22 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
US11419604B2 (en) 2018-07-16 2022-08-23 Cilag Gmbh International Robotic systems with separate photoacoustic receivers
EP4270016A3 (en) 2018-07-24 2024-02-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
GB2574074B (en) 2018-07-27 2020-05-20 Mclaren Applied Tech Ltd Time synchronisation
USD958151S1 (en) 2018-07-30 2022-07-19 Carlsmed, Inc. Display screen with a graphical user interface for surgical planning
US11112862B2 (en) 2018-08-02 2021-09-07 Magic Leap, Inc. Viewing system with interpupillary distance compensation based on head motion
US11298186B2 (en) * 2018-08-02 2022-04-12 Point Robotics Medtech Inc. Surgery assistive system and method for obtaining surface information thereof
US10795458B2 (en) 2018-08-03 2020-10-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
EP3611734A1 (de) * 2018-08-13 2020-02-19 Siemens Healthcare GmbH Steuereinheit und steuerverfahren zur steuerung einer ausgabeeinheit von informationen im rahmen der medizinischen diagnostik und therapie
US11116587B2 (en) 2018-08-13 2021-09-14 Theator inc. Timeline overlay on surgical video
US11244381B2 (en) * 2018-08-21 2022-02-08 International Business Machines Corporation Collaborative virtual reality computing system
JP7487176B2 (ja) 2018-08-22 2024-05-20 マジック リープ, インコーポレイテッド 患者視認システム
AU2019332975A1 (en) * 2018-08-28 2021-02-25 Smith & Nephew Asia Pacific Pte. Limited Robotic assisted ligament graft placement and tensioning
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
US20200078113A1 (en) 2018-09-07 2020-03-12 Ethicon Llc Port presence detection system for modular energy system
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US11806062B2 (en) 2018-09-07 2023-11-07 Cilag Gmbh International Surgical modular energy system with a segmented backplane
WO2020056186A1 (en) 2018-09-12 2020-03-19 Carlsmed, Inc. Systems and methods for orthopedic implants
US11621081B1 (en) * 2018-11-13 2023-04-04 Iqvia Inc. System for predicting patient health conditions
JP7472127B2 (ja) 2018-11-16 2024-04-22 マジック リープ, インコーポレイテッド 画像鮮明度を維持するための画像サイズによってトリガされる明確化
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11523872B1 (en) * 2018-12-03 2022-12-13 Memic Innovative Surgery Ltd. Systems and methods for guiding manipulation of endoscopic tools for endoscopic surgery
JP2022028086A (ja) * 2018-12-05 2022-02-15 ソニーグループ株式会社 情報処理装置、提示方法、および手術システム
WO2020123705A1 (en) * 2018-12-12 2020-06-18 Tornier, Inc. Soft tissue structure determination from ct images
CN113454507B (zh) 2018-12-21 2024-05-07 奇跃公司 用于促进波导内的全内反射的气穴结构
US11625825B2 (en) * 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11644940B1 (en) 2019-01-31 2023-05-09 Splunk Inc. Data visualization in an extended reality environment
US11853533B1 (en) * 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
CN113473936A (zh) * 2019-02-05 2021-10-01 史密夫和内修有限公司 机器人手术数据用于长期护理期
US11857378B1 (en) * 2019-02-14 2024-01-02 Onpoint Medical, Inc. Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets
CA3126444A1 (en) 2019-02-21 2020-08-27 Theator inc. Systems and methods for analysis of surgical videos
US11484384B2 (en) 2019-02-21 2022-11-01 Theator inc. Compilation video of differing events in surgeries on different patients
US11532132B2 (en) * 2019-03-08 2022-12-20 Mubayiwa Cornelious MUSARA Adaptive interactive medical training program with virtual patients
US12029940B2 (en) 2019-03-11 2024-07-09 Rom Technologies, Inc. Single sensor wearable device for monitoring joint extension and flexion
US11478358B2 (en) 2019-03-12 2022-10-25 Arthrosurface Incorporated Humeral and glenoid articular surface implant systems and methods
EP3939030A4 (en) 2019-03-12 2022-11-30 Magic Leap, Inc. REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY
US11743665B2 (en) 2019-03-29 2023-08-29 Cilag Gmbh International Modular surgical energy system with module positional awareness sensing with time counter
US11295410B2 (en) 2019-04-12 2022-04-05 Rocket Innovations, Inc. Writing surface boundary markers for computer vision
US11024096B2 (en) * 2019-04-29 2021-06-01 The Board Of Trustees Of The Leland Stanford Junior University 3D-perceptually accurate manual alignment of virtual content with the real world with an augmented reality device
US12048487B2 (en) * 2019-05-06 2024-07-30 Biosense Webster (Israel) Ltd. Systems and methods for improving cardiac ablation procedures
US11957960B2 (en) 2019-05-10 2024-04-16 Rehab2Fit Technologies Inc. Method and system for using artificial intelligence to adjust pedal resistance
US11957956B2 (en) 2019-05-10 2024-04-16 Rehab2Fit Technologies, Inc. System, method and apparatus for rehabilitation and exercise
US11904207B2 (en) 2019-05-10 2024-02-20 Rehab2Fit Technologies, Inc. Method and system for using artificial intelligence to present a user interface representing a user's progress in various domains
US11433276B2 (en) 2019-05-10 2022-09-06 Rehab2Fit Technologies, Inc. Method and system for using artificial intelligence to independently adjust resistance of pedals based on leg strength
US12102878B2 (en) 2019-05-10 2024-10-01 Rehab2Fit Technologies, Inc. Method and system for using artificial intelligence to determine a user's progress during interval training
US10881353B2 (en) * 2019-06-03 2021-01-05 General Electric Company Machine-guided imaging techniques
WO2021021328A2 (en) * 2019-06-14 2021-02-04 Quantum Interface, Llc Predictive virtual training systems, apparatuses, interfaces, and methods for implementing same
US11896540B2 (en) 2019-06-24 2024-02-13 Rehab2Fit Technologies, Inc. Method and system for implementing an exercise protocol for osteogenesis and/or muscular hypertrophy
US11514673B2 (en) 2019-07-26 2022-11-29 Magic Leap, Inc. Systems and methods for augmented reality
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11182576B1 (en) * 2019-07-31 2021-11-23 Splunk Inc. Techniques for using tag placement to determine 3D object orientation
WO2021026156A1 (en) 2019-08-07 2021-02-11 Tornier, Inc. Pre-operative planning of bone graft to be harvested from donor site
KR102208708B1 (ko) * 2019-08-14 2021-01-28 한국과학기술연구원 공통 좌표계 기반의 가상공간에서 가상 컨텐츠 제공 방법 및 장치
EP4021314A4 (en) * 2019-08-29 2022-12-28 MAKO Surgical Corp. ROBOTIC SURGICAL SYSTEM FOR ADVANCED HIP ARTHROPLASTY
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
US11986251B2 (en) 2019-09-13 2024-05-21 Treace Medical Concepts, Inc. Patient-specific osteotomy instrumentation
US11931106B2 (en) 2019-09-13 2024-03-19 Treace Medical Concepts, Inc. Patient-specific surgical methods and instrumentation
US11432882B2 (en) 2019-09-17 2022-09-06 CAIRA Surgical System and method for medical object tracking
US11071597B2 (en) 2019-10-03 2021-07-27 Rom Technologies, Inc. Telemedicine for orthopedic treatment
US11915816B2 (en) 2019-10-03 2024-02-27 Rom Technologies, Inc. Systems and methods of using artificial intelligence and machine learning in a telemedical environment to predict user disease states
US12020800B2 (en) 2019-10-03 2024-06-25 Rom Technologies, Inc. System and method for using AI/ML and telemedicine to integrate rehabilitation for a plurality of comorbid conditions
US11978559B2 (en) 2019-10-03 2024-05-07 Rom Technologies, Inc. Systems and methods for remotely-enabled identification of a user infection
US12062425B2 (en) 2019-10-03 2024-08-13 Rom Technologies, Inc. System and method for implementing a cardiac rehabilitation protocol by using artificial intelligence and standardized measurements
US11887717B2 (en) 2019-10-03 2024-01-30 Rom Technologies, Inc. System and method for using AI, machine learning and telemedicine to perform pulmonary rehabilitation via an electromechanical machine
US11069436B2 (en) 2019-10-03 2021-07-20 Rom Technologies, Inc. System and method for use of telemedicine-enabled rehabilitative hardware and for encouraging rehabilitative compliance through patient-based virtual shared sessions with patient-enabled mutual encouragement across simulated social networks
US11955222B2 (en) 2019-10-03 2024-04-09 Rom Technologies, Inc. System and method for determining, based on advanced metrics of actual performance of an electromechanical machine, medical procedure eligibility in order to ascertain survivability rates and measures of quality-of-life criteria
US12087426B2 (en) 2019-10-03 2024-09-10 Rom Technologies, Inc. Systems and methods for using AI ML to predict, based on data analytics or big data, an optimal number or range of rehabilitation sessions for a user
US11923065B2 (en) 2019-10-03 2024-03-05 Rom Technologies, Inc. Systems and methods for using artificial intelligence and machine learning to detect abnormal heart rhythms of a user performing a treatment plan with an electromechanical machine
US11955220B2 (en) 2019-10-03 2024-04-09 Rom Technologies, Inc. System and method for using AI/ML and telemedicine for invasive surgical treatment to determine a cardiac treatment plan that uses an electromechanical machine
US12020799B2 (en) 2019-10-03 2024-06-25 Rom Technologies, Inc. Rowing machines, systems including rowing machines, and methods for using rowing machines to perform treatment plans for rehabilitation
US11955223B2 (en) 2019-10-03 2024-04-09 Rom Technologies, Inc. System and method for using artificial intelligence and machine learning to provide an enhanced user interface presenting data pertaining to cardiac health, bariatric health, pulmonary health, and/or cardio-oncologic health for the purpose of performing preventative actions
US11961603B2 (en) 2019-10-03 2024-04-16 Rom Technologies, Inc. System and method for using AI ML and telemedicine to perform bariatric rehabilitation via an electromechanical machine
US11101028B2 (en) 2019-10-03 2021-08-24 Rom Technologies, Inc. Method and system using artificial intelligence to monitor user characteristics during a telemedicine session
US11075000B2 (en) 2019-10-03 2021-07-27 Rom Technologies, Inc. Method and system for using virtual avatars associated with medical professionals during exercise sessions
US11317975B2 (en) 2019-10-03 2022-05-03 Rom Technologies, Inc. Method and system for treating patients via telemedicine using sensor data from rehabilitation or exercise equipment
US11955221B2 (en) 2019-10-03 2024-04-09 Rom Technologies, Inc. System and method for using AI/ML to generate treatment plans to stimulate preferred angiogenesis
US11676345B1 (en) * 2019-10-18 2023-06-13 Splunk Inc. Automated adaptive workflows in an extended reality environment
GB2588236B (en) 2019-10-18 2024-03-20 Mclaren Applied Ltd Gyroscope bias estimation
US11826613B2 (en) 2019-10-21 2023-11-28 Rom Technologies, Inc. Persuasive motivation for orthopedic treatment
KR20220129534A (ko) * 2019-10-28 2022-09-23 발데마르 링크 게엠베하 운트 코.카게 3d 스캔을 구현하는 컴퓨터 지원 수술 내비게이션 시스템 및 방법
US12033081B2 (en) 2019-11-14 2024-07-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
EP4058979A4 (en) * 2019-11-15 2023-01-11 Magic Leap, Inc. VIEWING SYSTEM FOR USE IN A SURGICAL ENVIRONMENT
DE112020005835T5 (de) * 2019-11-28 2022-11-17 Sony Group Corporation Informationsverarbeitungssystem, sowie informationsverarbeitungsverfahren und -programm
US11925418B2 (en) * 2019-12-02 2024-03-12 The General Hospital Corporation Methods for multi-modal bioimaging data integration and visualization
US11488700B2 (en) * 2019-12-13 2022-11-01 Medtronic Minimed, Inc. Medical device configuration procedure guidance responsive to detected gestures
US20210193310A1 (en) * 2019-12-18 2021-06-24 DePuy Synthes Products, Inc. Platform for handling of medical devices associated with a medical device kit
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
KR102347471B1 (ko) * 2019-12-26 2022-01-06 (의료)길의료재단 증강 현실을 이용한 모의 수술 시스템 및 방법
US12053223B2 (en) 2019-12-30 2024-08-06 Cilag Gmbh International Adaptive surgical system control according to surgical smoke particulate characteristics
US12002571B2 (en) 2019-12-30 2024-06-04 Cilag Gmbh International Dynamic surgical visualization systems
US11832996B2 (en) 2019-12-30 2023-12-05 Cilag Gmbh International Analyzing surgical trends by a surgical system
US11896442B2 (en) 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
US11776144B2 (en) 2019-12-30 2023-10-03 Cilag Gmbh International System and method for determining, adjusting, and managing resection margin about a subject tissue
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US10902944B1 (en) 2020-01-06 2021-01-26 Carlsmed, Inc. Patient-specific medical procedures and devices, and associated systems and methods
US11376076B2 (en) 2020-01-06 2022-07-05 Carlsmed, Inc. Patient-specific medical systems, devices, and methods
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
EP3848779A1 (en) * 2020-01-09 2021-07-14 BHS Technologies GmbH Head-mounted display system and method for controlling a medical imaging device
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
JP7490965B2 (ja) * 2020-01-24 2024-05-28 コニカミノルタ株式会社 術式提案装置及びプログラム
US11983824B2 (en) * 2020-01-31 2024-05-14 Surgical Theater, Inc. System and method for augmenting and synchronizing a virtual model with a physical model
JP6736798B1 (ja) * 2020-02-14 2020-08-05 ヤマザキマザック株式会社 加工装置のためのワークの据え付け方法、ワーク据え付け支援システム、及び、ワーク据え付け支援プログラム
CN113345057A (zh) * 2020-02-18 2021-09-03 京东方科技集团股份有限公司 动画形象的生成方法、设备及存储介质
CN111297475B (zh) * 2020-02-19 2021-06-18 苏州微创畅行机器人有限公司 骨注册方法、骨注册系统、骨注册控制装置及可跟踪元件
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
WO2021168408A1 (en) 2020-02-20 2021-08-26 Smith & Nephew, Inc. Methods for arthroscopic video analysis and devices therefor
CN111290388B (zh) * 2020-02-25 2022-05-13 苏州科瓴精密机械科技有限公司 路径追踪方法、系统,机器人及可读存储介质
KR20230037007A (ko) * 2020-02-28 2023-03-15 8칠리 아이엔씨 수술 내비게이션 시스템 및 그 응용
US11918237B2 (en) * 2020-03-02 2024-03-05 Orthosoft Ulc Systems and methods for robotic ankle arthroplasty
US20230109015A1 (en) * 2020-03-04 2023-04-06 360 Knee Systems Pty Ltd Surgical impactor navigation systems and methods
CN111403022B (zh) * 2020-03-13 2020-11-27 北京维卓致远医疗科技发展有限责任公司 一种医疗用可移动分体式操控系统使用方法
TWI741536B (zh) * 2020-03-20 2021-10-01 台灣骨王生技股份有限公司 基於混合實境的手術導航影像成像方法
US20230093342A1 (en) * 2020-03-30 2023-03-23 Intuitive Surgical Operations, Inc. Method and system for facilitating remote presentation or interaction
WO2021203077A1 (en) 2020-04-03 2021-10-07 Smith & Nephew, Inc. Methods for arthroscopic surgery video segmentation and devices therefor
WO2021201967A1 (en) * 2020-04-03 2021-10-07 Howmedica Osteonics Corp. Mixed reality guidance for bone-graft harvesting
US20210313050A1 (en) 2020-04-05 2021-10-07 Theator inc. Systems and methods for assigning surgical teams to prospective surgical procedures
US20230157705A1 (en) * 2020-04-10 2023-05-25 Wright Medical Technology, Inc. Devices and methods for removing bone
US20210327567A1 (en) * 2020-04-20 2021-10-21 Explorer Surgical Corp. Machine-Learning Based Surgical Instrument Recognition System and Method to Trigger Events in Operating Room Workflows
WO2021216516A1 (en) * 2020-04-20 2021-10-28 Smith & Nephew, Inc. Fiducial marker devices
US11564767B2 (en) 2020-04-22 2023-01-31 Warsaw Orthopedic, Inc. Clinical diagnosis and treatment planning system and methods of use
US11107591B1 (en) 2020-04-23 2021-08-31 Rom Technologies, Inc. Method and system for describing and recommending optimal treatment plans in adaptive telemedical or other contexts
US20210335503A1 (en) * 2020-04-24 2021-10-28 Remote Health Ventures LLC Systems and methods for automated pricing, conduction, and transcription of telemedicine encounters
US20230146371A1 (en) * 2020-04-29 2023-05-11 Howmedica Osteonics Corp. Mixed-reality humeral-head sizing and placement
US20230346506A1 (en) * 2020-05-04 2023-11-02 Howmedica Osteonics Corp. Mixed reality-based screw trajectory guidance
DE102020205804A1 (de) * 2020-05-08 2021-11-11 Siemens Healthcare Gmbh Unterstützung einer medizinischen Intervention
US10949986B1 (en) * 2020-05-12 2021-03-16 Proprio, Inc. Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene
TWI799705B (zh) * 2020-05-20 2023-04-21 倍利科技股份有限公司 醫學影像輔助判讀系統
US20210374635A1 (en) * 2020-05-29 2021-12-02 Zebra Technologies Corporation Scalable assistive data generation and delivery
US20210378752A1 (en) * 2020-06-03 2021-12-09 Globus Medical, Inc. Machine learning system for navigated spinal surgeries
US11087557B1 (en) 2020-06-03 2021-08-10 Tovy Kamine Methods and systems for remote augmented reality communication for guided surgery
US11593931B2 (en) 2020-06-09 2023-02-28 Howmedica Osteonics Corp. Surgical kit inspection systems and methods for inspecting surgical kits having parts of different types
TWI790447B (zh) * 2020-06-10 2023-01-21 長庚大學 手術路徑定位方法、資訊顯示裝置、電腦可讀取的記錄媒體及特殊應用積體電路晶片
WO2021250456A1 (en) * 2020-06-11 2021-12-16 Vivek Dubey System and method to detect a disease outbreak
US20210391058A1 (en) * 2020-06-16 2021-12-16 Globus Medical, Inc. Machine learning system for navigated orthopedic surgeries
WO2022020057A2 (en) * 2020-06-30 2022-01-27 Purdue Research Foundation Artificially intelligent medical procedure assessment and intervention system
JP2022012375A (ja) * 2020-07-01 2022-01-17 株式会社東海理化電機製作所 触感呈示装置、触感呈示システム、制御装置、およびコンピュータプログラム
CN114144135A (zh) * 2020-07-03 2022-03-04 瓦里安医疗系统公司 射频消融处理系统和方法
CN111987630B (zh) * 2020-07-10 2022-09-06 国网上海市电力公司 一种用于电力物联网检修的可视化设备系统
EP4181813A1 (en) * 2020-07-14 2023-05-24 Howmedica Osteonics Corporation Dynamic joint analysis for joint replacement
WO2022014401A1 (en) * 2020-07-14 2022-01-20 Sony Group Corporation Device, method and computer program product for validating surgical simulation
US11980426B2 (en) * 2020-08-03 2024-05-14 Warsaw Orthopedic, Inc. System and method for preliminary registration
US20220277843A1 (en) * 2020-08-06 2022-09-01 Koninklijke Philips N.V. Systems and methods for streamlining imaging workflow using scanner room object detection and audio recognition cues
US12100499B2 (en) 2020-08-06 2024-09-24 Rom Technologies, Inc. Method and system for using artificial intelligence and machine learning to create optimal treatment plans based on monetary value amount generated and/or patient outcome
WO2022035941A1 (en) * 2020-08-11 2022-02-17 Carlsmed, Inc. Linking patient-specific medical devices with patient-specific data, and associated systems and methods
CN111932678B (zh) * 2020-08-13 2021-05-14 北京未澜科技有限公司 多视点实时人体运动、手势、表情、纹理重建系统
US11571225B2 (en) 2020-08-17 2023-02-07 Russell Todd Nevins System and method for location determination using movement between optical labels and a 3D spatial mapping camera
CN112107363B (zh) * 2020-08-31 2022-08-02 上海交通大学 一种基于深度相机的超声溶脂机器人系统及辅助操作方法
US20220061919A1 (en) * 2020-09-02 2022-03-03 Abys Medical Method And Integrated System For Assisting In Setting Up A Personalized Therapeutic Approach For Patients Subject To Medical And Surgical Care
US10937542B1 (en) * 2020-09-18 2021-03-02 Vent Creativity Corporation Patient specific treatment planning
TWI765369B (zh) * 2020-10-12 2022-05-21 臺北醫學大學 基於擴增實境的手術決策支援系統及其方法
US20220133331A1 (en) 2020-10-30 2022-05-05 Mako Surgical Corp. Robotic surgical system with cut selection logic
US20240000512A1 (en) * 2020-11-03 2024-01-04 360 Hip Systems Pty Limited Calculating range of motion
US20220175462A1 (en) * 2020-12-07 2022-06-09 Mazor Robotics Ltd. System for position and process verification in computer assisted surgery
EP4011314B1 (en) * 2020-12-08 2024-09-25 Ganymed Robotics System and method for assisting orthopeadics surgeries
US20220175460A1 (en) * 2020-12-09 2022-06-09 Pacific Medical Device Consulting LLC Self-locating, active markers for navigated, augmented reality, or robotic surgery
US12016633B2 (en) 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
US11890058B2 (en) 2021-01-21 2024-02-06 Arthrex, Inc. Orthopaedic planning systems and methods of repair
US20220238195A1 (en) * 2021-01-24 2022-07-28 RightDevice Inc. System and method of processing medical implant device and patient data
AU2022212931A1 (en) * 2021-01-28 2023-08-10 Mcginley Engineered Solutions, Llc Surgical instrument operation monitoring using artificial intelligence
JP2024507749A (ja) 2021-02-08 2024-02-21 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるコンテンツ共有
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
JP2024506630A (ja) 2021-02-08 2024-02-14 サイトフル コンピューターズ リミテッド 生産性のためのエクステンデッド・リアリティ
US11478327B2 (en) 2021-02-18 2022-10-25 Xenco Medical, Inc. Surgical display
WO2022204010A1 (en) * 2021-03-26 2022-09-29 Think Surgical, Inc. System and method for detecting a potential collision between a bone and an end-effector
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system
US11980411B2 (en) 2021-03-30 2024-05-14 Cilag Gmbh International Header for modular energy system
US12040749B2 (en) 2021-03-30 2024-07-16 Cilag Gmbh International Modular energy system with dual amplifiers and techniques for updating parameters thereof
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US12004824B2 (en) 2021-03-30 2024-06-11 Cilag Gmbh International Architecture for modular energy system
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US20220313341A1 (en) * 2021-03-30 2022-10-06 Ethicon Llc Surgical proceduralization via modular energy system
CN113509265A (zh) * 2021-04-01 2021-10-19 上海复拓知达医疗科技有限公司 一种动态位置识别提示系统及其方法
CN113133813A (zh) * 2021-04-01 2021-07-20 上海复拓知达医疗科技有限公司 基于穿刺过程的动态信息显示系统及方法
CN113133814A (zh) * 2021-04-01 2021-07-20 上海复拓知达医疗科技有限公司 基于增强现实的穿刺手术导航装置及计算机可读存储介质
US20220331008A1 (en) 2021-04-02 2022-10-20 Russell Todd Nevins System and method for location determination using movement of an optical label fixed to a bone using a spatial mapping camera
US12004966B2 (en) 2021-04-12 2024-06-11 Kaliber Labs Inc. Systems and methods for using image analysis in superior capsule reconstruction
DE102021109241B4 (de) * 2021-04-13 2023-03-16 Siemens Healthcare Gmbh System und verfahren zum bereitstellen interaktiver virtueller schulungen für mehrere medizinische mitarbeiter in echtzeit
DE102021204031A1 (de) 2021-04-22 2022-10-27 Carl Zeiss Meditec Ag Verfahren zum Betreiben eines Operationsmikroskops und Operationsmikroskop
EP4082469B8 (en) * 2021-04-26 2023-11-29 Institut National de la Santé et de la Recherche Médicale Automatic determination of an appropriate positioning of a patient-specific instrumentation with a depth camera
CN113158944B (zh) * 2021-04-29 2023-07-18 重庆锐云科技有限公司 基于人脸识别的体检排队方法、系统、设备及存储介质
DE102021111146A1 (de) * 2021-04-29 2022-11-03 Medicad Hectec Gmbh Augmented Reality Intra-OP
DE102021002652A1 (de) * 2021-05-20 2022-11-24 Medicad Hectec Gmbh Augmented reality-preoperative Planung
WO2022243963A1 (en) * 2021-05-21 2022-11-24 Cilag Gmbh International Dynamic adaptation system for surgical simulation
WO2022243961A1 (en) * 2021-05-21 2022-11-24 Cilag Gmbh International Surgical simulation system with simulated surgical equipment coordination
WO2022243960A1 (en) * 2021-05-21 2022-11-24 Cilag Gmbh International Simulation-based surgical analysis system
WO2022243957A1 (en) * 2021-05-21 2022-11-24 Cilag Gmbh International Simulation-based surgical procedure planning system
JP2024521722A (ja) * 2021-05-21 2024-06-04 シラグ・ゲーエムベーハー・インターナショナル 手術シミュレーションナビゲーションシステム
JP2024521110A (ja) * 2021-05-21 2024-05-28 シラグ・ゲーエムベーハー・インターナショナル 指示に基づいた、シミュレーションベースの手術開発システム
WO2022243958A1 (en) * 2021-05-21 2022-11-24 Cilag Gmbh International Surgical simulation system with coordinated imagining
US20220375620A1 (en) * 2021-05-21 2022-11-24 Cilag Gmbh International Surgical Simulation System With Coordinated Imagining
US20240206981A1 (en) * 2021-05-27 2024-06-27 Covidien Lp Improved systems and methods of navigating a medical device in a body lumen using fuzzy logic combined with device parameters, direct user inputs, and distributed anonymized data
DE102021205688A1 (de) * 2021-06-04 2022-12-08 Siemens Healthcare Gmbh Virtuelle Erweiterung eines Kamerabildes
US20220391790A1 (en) * 2021-06-06 2022-12-08 International Business Machines Corporation Using an augmented reality device to implement a computer driven action between multiple devices
WO2022261528A1 (en) * 2021-06-11 2022-12-15 The Regents Of The University Of California Using machine learning and 3d projection to guide medical procedures
EP4104743A1 (en) * 2021-06-15 2022-12-21 Cilag GmbH International Method of using imaging devices in surgery
WO2023279199A1 (en) * 2021-07-04 2023-01-12 A.I. Vali Inc. System and method for processing medical images in real time
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
CN113393056B (zh) * 2021-07-08 2022-11-25 山东大学 基于时间序列的众包服务供需缺口预测方法及系统
CN113488179B (zh) * 2021-07-20 2022-03-15 重庆东登科技有限公司 基于虚拟现实的急救系统
EP4326171A1 (en) * 2021-07-20 2024-02-28 MicroPort Orthopedics Holdings Inc. Systems and methods for using photogrammetry to create patient-specific guides for orthopedic surgery
WO2023002377A1 (en) * 2021-07-22 2023-01-26 Cilag Gmbh International Multi-level surgical data analysis system
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
USD1044829S1 (en) 2021-07-29 2024-10-01 Mako Surgical Corp. Display screen or portion thereof with graphical user interface
US20230031572A1 (en) * 2021-08-02 2023-02-02 Unisys Corporatrion Method of training a user to perform a task
WO2023014316A2 (en) * 2021-08-05 2023-02-09 Yaldiz Oezguer Sinan Personal bone cutting measurement planning software and distal femoral osteotomy bone cutting and screw guide
WO2023021448A1 (en) * 2021-08-18 2023-02-23 Augmedics Ltd. Augmented-reality surgical system using depth sensing
US20230055383A1 (en) * 2021-08-23 2023-02-23 Summate Technologies, Inc. Integrated Data Capture of Sterile and Non-Sterile Surgical Supplies and Implantables
CN113761796B (zh) * 2021-08-24 2023-04-18 中国人民解放军总医院第一医学中心 基于虚拟现实的心脏出血与止血模型的仿真系统和方法
CN113761776B (zh) * 2021-08-24 2023-03-14 中国人民解放军总医院第一医学中心 基于增强现实的心脏出血与止血模型的仿真系统和方法
CN118076312A (zh) * 2021-08-30 2024-05-24 阿瑟雷克斯股份有限公司 用于术前评估旋转中心数据的手术计划系统和方法
EP4398830A1 (en) * 2021-09-08 2024-07-17 Arthrex, Inc. Surgical systems and methods for positioning objects using augmented reality navigation
DE102021210397A1 (de) 2021-09-20 2023-03-23 Carl Zeiss Meditec Ag System und Verfahren zum Konfigurieren von zumindest einem medizinischen Gerät
US11759216B2 (en) 2021-09-22 2023-09-19 Arthrex, Inc. Orthopaedic fusion planning systems and methods of repair
CN117858682A (zh) * 2021-09-30 2024-04-09 微创骨科学控股股份有限公司 术中使用摄影测量对准手术要素的系统和方法
US11600053B1 (en) 2021-10-04 2023-03-07 Russell Todd Nevins System and method for location determination using a mixed reality device and multiple imaging cameras
IL312436A (en) * 2021-10-23 2024-06-01 Simulated Inanimate Models Llc Device, methods and systems for guidance in guiding procedures
WO2023070144A1 (en) * 2021-10-28 2023-05-04 Akunah Medical Technology Pty Ltd Method and system of visualization during orthopaedic surgery
CN113995525A (zh) * 2021-11-05 2022-02-01 无锡蓝软智能医疗科技有限公司 可切换视角的基于混合现实的医疗场景同步操作系统及存储介质
WO2023086332A1 (en) * 2021-11-09 2023-05-19 Genesis Medtech (USA) Inc. An interactive augmented reality system for laparoscopic and video assisted surgeries
KR102608724B1 (ko) * 2021-11-22 2023-12-01 주식회사 듀코젠 Vr 공학 실습 컨텐츠에서의 실습 제공 방법 및 시스템
US11948265B2 (en) 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting
US20230169696A1 (en) * 2021-11-27 2023-06-01 Novarad Corporation Transfer of Alignment Accuracy Between Visible Markers Used with Augmented Reality Displays
PT117610A (pt) * 2021-11-29 2023-05-29 Peek Health S A Sistemas e métodos para planeamento automático de cirurgias ortopédicas
US11410769B1 (en) * 2021-12-08 2022-08-09 Vent Creativity Corporation Tactile solutions integration for patient specific treatment
WO2023113823A1 (en) * 2021-12-17 2023-06-22 Hewlett-Packard Development Company, L.P. Generating a three-dimensional representation of an object
CN114241476A (zh) * 2021-12-20 2022-03-25 山东矩阵软件工程股份有限公司 一种列车车况检查方法、系统及相关装置
WO2023117340A1 (en) * 2021-12-22 2023-06-29 Biotronik Ag Method and system for virtual surgical procedure
US11726734B2 (en) * 2022-01-13 2023-08-15 Motorola Mobility Llc Configuring an external presentation device based on an impairment of a user
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11443838B1 (en) 2022-02-23 2022-09-13 Carlsmed, Inc. Non-fungible token systems and methods for storing and accessing healthcare data
US20230306350A1 (en) * 2022-03-22 2023-09-28 Saudi Arabian Oil Company Method and system for verifying performance-based assessments during virtual reality sessions
CN114973820B (zh) * 2022-04-13 2024-06-25 北京众绘虚拟现实技术研究院有限公司 关节镜模拟训练系统
DE102022111283A1 (de) * 2022-05-06 2023-11-09 Aesculap Ag Generierung von virtuellen optoelektronischen Daten
WO2023220646A2 (en) * 2022-05-10 2023-11-16 Kaliber Labs Inc. System to provide postoperative care and monitoring using human voice
FR3135560B1 (fr) * 2022-05-13 2024-06-21 Virtualisurg Plateforme d’entraînement
WO2023235747A2 (en) * 2022-05-31 2023-12-07 The Board Of Supervisors Of Louisiana State University And Agricultural And Mechanical College Modular anatomical system
CN115054367A (zh) * 2022-06-20 2022-09-16 上海市胸科医院 基于混合现实的病灶定位方法、装置和电子设备
US20230410993A1 (en) * 2022-06-21 2023-12-21 Mako Surgical Corporation Devices, systems, and methods for predicting surgical time and optimizing medical procedures and outcomes
US12079460B2 (en) 2022-06-28 2024-09-03 Cilag Gmbh International Profiles for modular energy system
CN115115810B (zh) * 2022-06-29 2023-06-02 广东工业大学 一种基于空间姿态捕捉的多人协同病灶定位与增强展示方法
US20240029367A1 (en) * 2022-07-22 2024-01-25 Covidien Lp Extended reality training platform
US11547486B1 (en) * 2022-08-03 2023-01-10 Ix Innovation Llc Digital image analysis for robotic installation of surgical implants
WO2024039493A1 (en) * 2022-08-18 2024-02-22 Arthrex, Inc. Preoperative surgical planning systems and methods for performing range of motion analysis
US20240070933A1 (en) * 2022-08-22 2024-02-29 Broncus Medical Inc. Intraprocedure 2d to 3d registration adjustment method and system
WO2024044188A1 (en) * 2022-08-23 2024-02-29 Smith & Nephew, Inc. Multi-class image segmentation with w-net architecture
CN115131409B (zh) * 2022-08-26 2023-01-24 深圳深知未来智能有限公司 一种基于深度学习的亲密矩阵视点合成方法、应用及系统
EP4331664A1 (en) * 2022-08-31 2024-03-06 Vision RT Limited A system for monitoring position of a patient
WO2024054578A1 (en) * 2022-09-09 2024-03-14 Howmedica Osteonics Corp. Mixed reality bone graft shaping
WO2024057210A1 (en) 2022-09-13 2024-03-21 Augmedics Ltd. Augmented reality eyewear for image-guided medical intervention
AU2022235552A1 (en) * 2022-09-20 2024-04-04 Griffith University A computer program, apparatus, and computer-implemented method of pre-operative planning for patient surgery
US11806241B1 (en) 2022-09-22 2023-11-07 Carlsmed, Inc. System for manufacturing and pre-operative inspecting of patient-specific implants
US12079442B2 (en) 2022-09-30 2024-09-03 Sightful Computers Ltd Presenting extended reality content in different physical environments
TWI836680B (zh) * 2022-10-26 2024-03-21 幻景啟動股份有限公司 立體影像互動模擬系統與運作方法
US11850005B1 (en) * 2022-10-27 2023-12-26 Mammen Thomas Use of immersive real-time metaverse and avatar and 3-D hologram for medical and veterinary applications using spatially coordinated multi-imager based 3-D imaging
US20240138919A1 (en) * 2022-10-28 2024-05-02 Carlsmed, Inc. Systems and methods for selecting, reviewing, modifying, and/or approving surgical plans
EP4365875A1 (en) * 2022-11-02 2024-05-08 Siemens Healthineers AG Technique for visualizing interactions with a technical device in an xr scene
CN115662234B (zh) * 2022-11-03 2023-09-08 郑州大学 一种基于虚拟现实的胸腔镜手术示教系统
WO2024112857A1 (en) * 2022-11-23 2024-05-30 Xironetic Llc Extended reality registration method using virtual fiducial markers
US20240203580A1 (en) * 2022-12-20 2024-06-20 Rom Technologies, Inc. Method and system for using artificial intelligence to triage treatment plans for patients and electronically initiate the treament plans based on the triaging
US11826057B1 (en) * 2022-12-20 2023-11-28 Little Engine, LLC Knee jig positioning apparatus and method
US20240197409A1 (en) * 2022-12-20 2024-06-20 Orthosoft Ulc Tool navigation in mixed reality computer-assisted surgery
US20240225748A1 (en) * 2023-01-09 2024-07-11 Mediview Xr, Inc. Planning and performing three-dimensional holographic interventional procedures with holographic guide
US11793577B1 (en) 2023-01-27 2023-10-24 Carlsmed, Inc. Techniques to map three-dimensional human anatomy data to two-dimensional human anatomy data
WO2024182690A1 (en) * 2023-03-01 2024-09-06 Howmedica Osteonics Corp. Target-centered virtual element to indicate hold time for mr registration during surgery
KR102624485B1 (ko) 2023-07-12 2024-01-15 (주)시안솔루션 환자 맞춤형 가이던스를 설계하는 방법, 이를 위한 프로그램 및 서버
KR102631687B1 (ko) * 2023-08-23 2024-01-31 주식회사 대박드림스 뉴럴 네트워크를 이용하여 사용자 단말에게 통증 관리 정보를 제공하는 방법 및 장치
CN117789563B (zh) * 2024-02-23 2024-05-31 湖南晟医智能科技有限公司 基于ai和mr技术虚实融合模拟医学教学方法和系统
CN118151805B (zh) * 2024-05-10 2024-09-03 杭州三坛医疗科技有限公司 一种基于髋关节磨锉控制的软件界面交互方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071658A (ja) 2012-09-28 2014-04-21 Nippon Koden Corp 手術支援システム
US20150058031A1 (en) 2013-08-20 2015-02-26 Kyle Samani Methods and systems for a medical checklist
US20170258526A1 (en) 2016-03-12 2017-09-14 Philipp K. Lang Devices and methods for surgery

Family Cites Families (470)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5769640A (en) 1992-12-02 1998-06-23 Cybernet Systems Corporation Method and system for simulating medical procedures including virtual reality and control method and system for use therein
JP3482690B2 (ja) * 1994-05-31 2003-12-22 株式会社島津製作所 手術器具の位置表示装置
US5682886A (en) 1995-12-26 1997-11-04 Musculographics Inc Computer-assisted surgical system
AU727263B2 (en) * 1996-09-30 2000-12-07 Smithkline Beecham Corporation Disease management method and system
US5824085A (en) 1996-09-30 1998-10-20 Integrated Surgical Systems, Inc. System and method for cavity generation for surgical planning and initial placement of a bone prosthesis
US6847336B1 (en) 1996-10-02 2005-01-25 Jerome H. Lemelson Selectively controllable heads-up display system
US7618451B2 (en) 2001-05-25 2009-11-17 Conformis, Inc. Patient selectable joint arthroplasty devices and surgical tools facilitating increased accuracy, speed and simplicity in performing total and partial joint arthroplasty
US8480754B2 (en) 2001-05-25 2013-07-09 Conformis, Inc. Patient-adapted and improved articular implants, designs and related guide tools
US20110071802A1 (en) 2009-02-25 2011-03-24 Ray Bojarski Patient-adapted and improved articular implants, designs and related guide tools
US8735773B2 (en) 2007-02-14 2014-05-27 Conformis, Inc. Implant device and method for manufacture
US9603711B2 (en) 2001-05-25 2017-03-28 Conformis, Inc. Patient-adapted and improved articular implants, designs and related guide tools
US8617242B2 (en) 2001-05-25 2013-12-31 Conformis, Inc. Implant device and method for manufacture
US7468075B2 (en) 2001-05-25 2008-12-23 Conformis, Inc. Methods and compositions for articular repair
US8556983B2 (en) 2001-05-25 2013-10-15 Conformis, Inc. Patient-adapted and improved orthopedic implants, designs and related tools
US8083745B2 (en) 2001-05-25 2011-12-27 Conformis, Inc. Surgical tools for arthroplasty
US8545569B2 (en) 2001-05-25 2013-10-01 Conformis, Inc. Patient selectable knee arthroplasty devices
US7534263B2 (en) 2001-05-25 2009-05-19 Conformis, Inc. Surgical tools facilitating increased accuracy, speed and simplicity in performing joint arthroplasty
US6205411B1 (en) 1997-02-21 2001-03-20 Carnegie Mellon University Computer-assisted surgery planner and intra-operative guidance system
US5880976A (en) 1997-02-21 1999-03-09 Carnegie Mellon University Apparatus and method for facilitating the implantation of artificial components in joints
US6608628B1 (en) 1998-11-06 2003-08-19 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) Method and apparatus for virtual interactive medical imaging by multiple remotely-located users
US6245074B1 (en) * 1999-09-01 2001-06-12 Bristol-Myers Squibb Co. Orthopaedic glenoid reamer
US7635390B1 (en) * 2000-01-14 2009-12-22 Marctec, Llc Joint replacement component having a modular articulating surface
US20040068187A1 (en) * 2000-04-07 2004-04-08 Krause Norman M. Computer-aided orthopedic surgery
US6458136B1 (en) * 2000-05-11 2002-10-01 Zimmer, Inc. Orthopaedic instrument for sizing implant sites and for pressurizing bone cement and a method for using the same
US20020082498A1 (en) 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
ATE431111T1 (de) 2001-02-27 2009-05-15 Smith & Nephew Inc Vorrichtung zur totalen knierekonstruktion
JP2002297850A (ja) * 2001-04-02 2002-10-11 Hitachi Ltd ワークフローシステムにおけるクロスチェック制御方法およびワークフローシステム
CA2447694A1 (en) 2001-05-25 2002-12-05 Imaging Therapeutics, Inc. Methods and compositions for articular resurfacing
US8439926B2 (en) 2001-05-25 2013-05-14 Conformis, Inc. Patient selectable joint arthroplasty devices and surgical tools
CA2486525C (en) 2001-06-13 2009-02-24 Volume Interactions Pte. Ltd. A guide system and a probe therefor
WO2002100284A1 (en) 2001-06-13 2002-12-19 Volume Interactions Pte Ltd A guide system
US20040162619A1 (en) 2001-08-27 2004-08-19 Zimmer Technology, Inc. Tibial augments for use with knee joint prostheses, method of implanting the tibial augment, and associated tools
US7708741B1 (en) * 2001-08-28 2010-05-04 Marctec, Llc Method of preparing bones for knee replacement surgery
US7715602B2 (en) 2002-01-18 2010-05-11 Orthosoft Inc. Method and apparatus for reconstructing bone surfaces during surgery
AU2003218010A1 (en) 2002-03-06 2003-09-22 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US8801720B2 (en) 2002-05-15 2014-08-12 Otismed Corporation Total joint arthroplasty system
US6978167B2 (en) 2002-07-01 2005-12-20 Claron Technology Inc. Video pose tracking system and method
US7736368B2 (en) 2002-08-23 2010-06-15 Orthosoft Inc. Surgical universal positioning block and tool guide
GB2393625C (en) 2002-09-26 2004-08-18 Meridian Tech Ltd Orthopaedic surgery planning
EP1555962B1 (en) 2002-10-07 2011-02-09 Conformis, Inc. Minimally invasive joint implant with 3-dimensional geometry matching the articular surfaces
CA2505371A1 (en) 2002-11-07 2004-05-27 Conformis, Inc. Methods for determining meniscal size and shape and for devising treatment
CN1729484A (zh) 2002-12-04 2006-02-01 康复米斯公司 用于mri中的各向同性成像及使用各向同性或近似各向同性成像的定量图像分析中的多个成像平面的融合
US7542791B2 (en) 2003-01-30 2009-06-02 Medtronic Navigation, Inc. Method and apparatus for preplanning a surgical procedure
US20040243148A1 (en) 2003-04-08 2004-12-02 Wasielewski Ray C. Use of micro- and miniature position sensing devices for use in TKA and THA
US6944518B2 (en) 2003-09-18 2005-09-13 Depuy Products, Inc. Customized prosthesis and method of designing and manufacturing a customized prosthesis by utilizing computed tomography data
WO2005039430A2 (en) 2003-10-06 2005-05-06 Smith & Nephew, Inc. Modular navigated portal
US8175683B2 (en) 2003-12-30 2012-05-08 Depuy Products, Inc. System and method of designing and manufacturing customized instrumentation for accurate implantation of prosthesis by utilizing computed tomography data
US7774044B2 (en) 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
WO2005087125A2 (en) 2004-03-10 2005-09-22 Depuy International Ltd Orthopaedic operating systems, methods, implants and instruments
US9681925B2 (en) 2004-04-21 2017-06-20 Siemens Medical Solutions Usa, Inc. Method for augmented reality instrument placement using an image based navigation system
DE502004006571D1 (de) 2004-04-27 2008-04-30 Brainlab Ag Planungsverfahren und -vorrichtung für Knieimplantationen
US9237958B2 (en) * 2004-06-30 2016-01-19 Synergy Disc Replacement Inc. Joint prostheses
US7235592B2 (en) 2004-10-12 2007-06-26 Zimmer Gmbh PVA hydrogel
US7935134B2 (en) 2004-10-20 2011-05-03 Exactech, Inc. Systems and methods for stabilization of bone structures
US20070239159A1 (en) 2005-07-22 2007-10-11 Vertiflex, Inc. Systems and methods for stabilization of bone structures
US20060111722A1 (en) 2004-11-19 2006-05-25 Hacene Bouadi Surgical cutting tool
US7896869B2 (en) * 2004-12-29 2011-03-01 Depuy Products, Inc. System and method for ensuring proper medical instrument use in an operating room
US20060184454A1 (en) 2005-02-11 2006-08-17 Mohan Ananda System and method for copy monitoring and automated invoicing
GB0504172D0 (en) 2005-03-01 2005-04-06 King S College London Surgical planning
CN101170961A (zh) * 2005-03-11 2008-04-30 布拉科成像S.P.A.公司 利用显微镜的用于外科手术导航及可视化的方法及设备
GB0512078D0 (en) 2005-06-14 2005-07-20 Gill Steven S RF Coil structure
US20070015999A1 (en) 2005-07-15 2007-01-18 Heldreth Mark A System and method for providing orthopaedic surgical information to a surgeon
US7983777B2 (en) 2005-08-19 2011-07-19 Mark Melton System for biomedical implant creation and procurement
US20070066917A1 (en) 2005-09-20 2007-03-22 Hodorek Robert A Method for simulating prosthetic implant selection and placement
US20070118055A1 (en) 2005-11-04 2007-05-24 Smith & Nephew, Inc. Systems and methods for facilitating surgical procedures involving custom medical implants
US20070179626A1 (en) 2005-11-30 2007-08-02 De La Barrera Jose L M Functional joint arthroplasty method
KR100978260B1 (ko) 2005-12-27 2010-08-26 엘지디스플레이 주식회사 액정표시장치 및 그 제조방법
US7907166B2 (en) 2005-12-30 2011-03-15 Intuitive Surgical Operations, Inc. Stereo telestration for robotic surgery
TWI584796B (zh) 2006-02-06 2017-06-01 康福美斯公司 患者可選擇式關節置換術裝置及外科工具
US8623026B2 (en) 2006-02-06 2014-01-07 Conformis, Inc. Patient selectable joint arthroplasty devices and surgical tools incorporating anatomical relief
US20070239153A1 (en) 2006-02-22 2007-10-11 Hodorek Robert A Computer assisted surgery system using alternative energy technology
GB0603572D0 (en) 2006-02-23 2006-04-05 Depuy Ireland Ltd A glenoid component of a shoulder joint prosthesis
US8070752B2 (en) 2006-02-27 2011-12-06 Biomet Manufacturing Corp. Patient specific alignment guide and inter-operative adjustment
US8092465B2 (en) 2006-06-09 2012-01-10 Biomet Manufacturing Corp. Patient specific knee alignment guide and associated method
US8282646B2 (en) 2006-02-27 2012-10-09 Biomet Manufacturing Corp. Patient specific knee alignment guide and associated method
US7949386B2 (en) 2006-03-21 2011-05-24 A2 Surgical Computer-aided osteoplasty surgery system
US20070233267A1 (en) 2006-03-29 2007-10-04 Farid Amirouche Application of neural networks to prosthesis fitting and balancing in joints
WO2007115826A2 (en) * 2006-04-12 2007-10-18 Nassir Navab Virtual penetrating mirror device for visualizing of virtual objects within an augmented reality environment
FR2899790B1 (fr) * 2006-04-13 2008-06-13 Tornier Sas Composant glenoidien pour prothese totale d'epaule, jeu de tels composants, et prothese totale d'epaule comprenant un tel composant
US9795399B2 (en) 2006-06-09 2017-10-24 Biomet Manufacturing, Llc Patient-specific knee alignment guide and associated method
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
EP2032087A1 (en) * 2006-06-19 2009-03-11 IGO Technologies Inc. Joint placement methods and apparatuses
US10008017B2 (en) 2006-06-29 2018-06-26 Intuitive Surgical Operations, Inc. Rendering tool information as graphic overlays on displayed images of tools
US7885701B2 (en) 2006-06-30 2011-02-08 Depuy Products, Inc. Registration pointer and method for registering a bone of a patient to a computer assisted orthopaedic surgery system
CN101506859A (zh) * 2006-07-12 2009-08-12 医疗网络世界公司 计算机化的医疗培训系统
US8214016B2 (en) 2006-12-12 2012-07-03 Perception Raisonnement Action En Medecine System and method for determining an optimal type and position of an implant
US8014984B2 (en) 2007-03-06 2011-09-06 The Cleveland Clinic Foundation Method and apparatus for preparing for a surgical procedure
US20080249395A1 (en) * 2007-04-06 2008-10-09 Yehoshua Shachar Method and apparatus for controlling catheter positioning and orientation
CA2683717C (en) * 2007-04-19 2016-10-11 Mako Surgical Corp. Implant planning using captured joint motion information
US8062364B1 (en) 2007-04-27 2011-11-22 Knee Creations, Llc Osteoarthritis treatment and device
US9179983B2 (en) 2007-08-14 2015-11-10 Zimmer, Inc. Method of determining a contour of an anatomical structure and selecting an orthopaedic implant to replicate the anatomical structure
CA2945266C (en) 2007-08-17 2021-11-02 Zimmer, Inc. Implant design analysis suite
EP2200530A2 (en) 2007-09-12 2010-06-30 Nobel Biocare Services AG Method and system for planning a medical procedure and generating data related to said medical procedure
US8457790B2 (en) 2007-09-14 2013-06-04 Zimmer, Inc. Robotic calibration method
US8777875B2 (en) 2008-07-23 2014-07-15 Otismed Corporation System and method for manufacturing arthroplasty jigs having improved mating accuracy
US8221430B2 (en) 2007-12-18 2012-07-17 Otismed Corporation System and method for manufacturing arthroplasty jigs
US8545509B2 (en) 2007-12-18 2013-10-01 Otismed Corporation Arthroplasty system and related methods
US8480679B2 (en) 2008-04-29 2013-07-09 Otismed Corporation Generation of a computerized bone model representative of a pre-degenerated state and useable in the design and manufacture of arthroplasty devices
US8737700B2 (en) 2007-12-18 2014-05-27 Otismed Corporation Preoperatively planning an arthroplasty procedure and generating a corresponding patient specific arthroplasty resection guide
US8617171B2 (en) 2007-12-18 2013-12-31 Otismed Corporation Preoperatively planning an arthroplasty procedure and generating a corresponding patient specific arthroplasty resection guide
US8715291B2 (en) 2007-12-18 2014-05-06 Otismed Corporation Arthroplasty system and related methods
US8160345B2 (en) 2008-04-30 2012-04-17 Otismed Corporation System and method for image segmentation in generating computer models of a joint to undergo arthroplasty
EP2237729B1 (en) 2008-01-16 2016-04-13 Orthosoft, Inc. Pinless system for computer assisted orthopedic surgery
US8478382B2 (en) 2008-02-11 2013-07-02 C. R. Bard, Inc. Systems and methods for positioning a catheter
US8682052B2 (en) 2008-03-05 2014-03-25 Conformis, Inc. Implants for altering wear patterns of articular surfaces
EP2103259B1 (en) 2008-03-19 2012-01-25 BrainLAB AG Method and system for determination of a degree of deformity of an anatomical joint
EP2119409B1 (de) 2008-05-15 2012-10-10 BrainLAB AG Gelenk-Rekonstruktionsplanung mit Modelldaten
FR2932674B1 (fr) 2008-06-20 2011-11-18 Tornier Sa Procede de modelisation d'une surface glenoidienne d'une omoplate, dispositif d'implantation d'un composant glenoidien d'une prothese d'epaule, et procede de fabrication d'un tel compose.
US20100063509A1 (en) * 2008-07-24 2010-03-11 OrthAlign, Inc. Systems and methods for joint replacement
US8078440B2 (en) 2008-09-19 2011-12-13 Smith & Nephew, Inc. Operatively tuning implants for increased performance
US8160326B2 (en) 2008-10-08 2012-04-17 Fujifilm Medical Systems Usa, Inc. Method and system for surgical modeling
US8295637B2 (en) * 2009-01-07 2012-10-23 Seiko Epson Corporation Method of classifying red-eye objects using feature extraction and classifiers
US8444564B2 (en) * 2009-02-02 2013-05-21 Jointvue, Llc Noninvasive diagnostic system
WO2010096452A2 (en) * 2009-02-20 2010-08-26 Groh Gordon I System for treating proximal humeral fractures and method of using the same
US8808303B2 (en) 2009-02-24 2014-08-19 Microport Orthopedics Holdings Inc. Orthopedic surgical guide
EP2405865B1 (en) 2009-02-24 2019-04-17 ConforMIS, Inc. Automated systems for manufacturing patient-specific orthopedic implants and instrumentation
US8808297B2 (en) 2009-02-24 2014-08-19 Microport Orthopedics Holdings Inc. Orthopedic surgical guide
US9078755B2 (en) 2009-02-25 2015-07-14 Zimmer, Inc. Ethnic-specific orthopaedic implants and custom cutting jigs
US20220273450A1 (en) 2009-02-25 2022-09-01 Conformis, Inc. Patient-Adapted and Improved Orthopedic Implants, Designs and Related Guide Tools
CA2753485C (en) 2009-02-25 2014-01-14 Mohamed Rashwan Mahfouz Customized orthopaedic implants and related methods
MX2011009515A (es) 2009-03-11 2011-09-28 Exactech Inc Ensamble de hombro invertido inductor de movimiento.
EP2236104B1 (de) 2009-03-31 2013-06-19 BrainLAB AG Medizintechnische Navigations-Bildausgabe mit virtuellen Primärbildern und realen Sekundärbildern
US8457930B2 (en) 2009-04-15 2013-06-04 James Schroeder Personalized fit and functional designed medical prostheses and surgical instruments and methods for making
SG10201401326SA (en) 2009-04-16 2014-10-30 Conformis Inc Patient-specific joint arthroplasty devices for ligament repair
US8794977B2 (en) 2009-04-29 2014-08-05 Lifemodeler, Inc. Implant training system
US8662900B2 (en) 2009-06-04 2014-03-04 Zimmer Dental Inc. Dental implant surgical training simulation system
EP2258283B1 (de) * 2009-06-05 2013-08-28 BrainLAB AG Werkzeugaufsatz für medizintechnische Anwendungen
US8876830B2 (en) 2009-08-13 2014-11-04 Zimmer, Inc. Virtual implant placement in the OR
US20120143090A1 (en) * 2009-08-16 2012-06-07 Ori Hay Assessment of Spinal Anatomy
US8819591B2 (en) 2009-10-30 2014-08-26 Accuray Incorporated Treatment planning in a virtual environment
AU2010323639B2 (en) 2009-11-24 2014-04-10 Lexi Co., Ltd. Preoperative planning program for artificial hip joint replacement surgery and surgery support jig
FR2955481B1 (fr) 2010-01-27 2013-06-14 Tornier Sa Dispositif et procede de caracterisation glenoidienne d'une omoplate a protheser ou a resurfacer
US8652148B2 (en) 2010-02-25 2014-02-18 Zimmer, Inc. Tracked cartilage repair system
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
GB2479694B (en) * 2010-03-17 2012-02-08 Thomas Maurice Stewart Gregory Shoulder replacement apparatus
US9579106B2 (en) 2010-03-31 2017-02-28 New York Society For The Relief Of The Ruptured And Crippled, Maintaining The Hospital For Special Surgery Shoulder arthroplasty instrumentation
JP2013523415A (ja) * 2010-04-14 2013-06-17 スミス アンド ネフュー インコーポレーテッド 患者立脚型コンピュータ支援外科的処置のためのシステムおよび方法
FR2962573B1 (fr) 2010-06-16 2019-04-12 Imascap Procede d'identification automatique des contours d'un os predefini, procedes derives et produits programme d'ordinateur correspondants
BR112012030537A2 (pt) * 2010-07-08 2017-06-20 Synthes Gmbh marcador ósseo avançado e implantes personalizados
US8908937B2 (en) 2010-07-08 2014-12-09 Biomet Manufacturing, Llc Method and device for digital image templating
WO2012021241A2 (en) 2010-08-12 2012-02-16 Smith & Nephew, Inc. Methods and devices for installing standard and reverse shoulder implants
US8315812B2 (en) * 2010-08-12 2012-11-20 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
RU2013110371A (ru) * 2010-08-13 2014-09-20 Смит Энд Нефью, Инк. Обнаружение анатомических ориентиров
JP2013539379A (ja) 2010-08-13 2013-10-24 スミス アンド ネフュー インコーポレーテッド 整形外科的手技のパラメータを最適化するためのシステム及び方法
KR20140022360A (ko) 2010-08-25 2014-02-24 스미스 앤드 네퓨, 인크. 임플란트 최적화를 위한 수술 중 스캐닝
US8696675B2 (en) * 2010-08-31 2014-04-15 Orthosoft Inc. Proximity-triggered computer-assisted surgery system and method
US8679125B2 (en) 2010-09-22 2014-03-25 Biomet Manufacturing, Llc Robotic guided femoral head reshaping
US20120100517A1 (en) * 2010-09-30 2012-04-26 Andrew Bowditch Real-time, interactive, three-dimensional virtual surgery system and method thereof
US8751194B2 (en) * 2010-09-30 2014-06-10 Fitbit, Inc. Power consumption management of display in portable device based on prediction of user input
US20120089146A1 (en) 2010-10-06 2012-04-12 Howmedica Osteonics Corp. System and method of bone preparation
US8526700B2 (en) * 2010-10-06 2013-09-03 Robert E. Isaacs Imaging system and method for surgical and interventional medical procedures
WO2012058355A1 (en) 2010-10-29 2012-05-03 The Cleveland Clinic Foundation System of preoperative planning and provision of patient-specific surgical aids
US20120276509A1 (en) 2010-10-29 2012-11-01 The Cleveland Clinic Foundation System of preoperative planning and provision of patient-specific surgical aids
US9283429B2 (en) * 2010-11-05 2016-03-15 Nike, Inc. Method and system for automated personal training
EP2452649A1 (en) 2010-11-12 2012-05-16 Deutsches Krebsforschungszentrum Stiftung des Öffentlichen Rechts Visualization of anatomical data by augmented reality
KR101390383B1 (ko) 2010-11-16 2014-04-29 한국전자통신연구원 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 관리 장치
EP2651344A4 (en) 2010-12-17 2015-08-19 Intellijoint Surgical Inc METHOD AND SYSTEM FOR ALIGNING A PROSTHESIS DURING A SURGICAL INTERVENTION
US8917290B2 (en) 2011-01-31 2014-12-23 Biomet Manufacturing, Llc Digital image templating
JP2014511226A (ja) 2011-02-07 2014-05-15 エグザクテック,インコーポレイティド 調整自在な逆型肩関節プロテーゼ
WO2012112698A2 (en) 2011-02-15 2012-08-23 Conformis, Inc. Patient-adapted and improved articular implants, procedures and tools to address, assess, correct, modify and/or accommodate anatomical variation and/or asymmetry
ES2776151T3 (es) 2011-02-25 2020-07-29 Corin Ltd Un método implementado por ordenador para proporcionar datos de información de alineación para la alineación de un implante ortopédico para una articulación de un paciente
US10130378B2 (en) 2011-05-11 2018-11-20 The Cleveland Clinic Foundation Generating patient specific instruments for use as surgical aids
US8532807B2 (en) 2011-06-06 2013-09-10 Biomet Manufacturing, Llc Pre-operative planning and manufacturing method for orthopedic procedure
EP2726164B1 (en) * 2011-06-30 2019-09-11 Orange Augmented-reality range-of-motion therapy system and method of operation thereof
JP2014529314A (ja) 2011-07-20 2014-11-06 スミス アンド ネフュー インコーポレーテッド 解剖学的構造へのインプラントの適合を最適化するシステムおよび方法
WO2013020026A1 (en) 2011-08-03 2013-02-07 Conformis, Inc. Automated design, selection, manufacturing and implantation of patient-adapted and improved articular implants, designs and related guide tools
US9123155B2 (en) 2011-08-09 2015-09-01 Covidien Lp Apparatus and method for using augmented reality vision system in surgical procedures
US9402726B2 (en) 2011-08-15 2016-08-02 Conformis, Inc. Revision systems, tools and methods for revising joint arthroplasty implants
US10866783B2 (en) * 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US20130093829A1 (en) * 2011-09-27 2013-04-18 Allied Minds Devices Llc Instruct-or
US9301812B2 (en) 2011-10-27 2016-04-05 Biomet Manufacturing, Llc Methods for patient-specific shoulder arthroplasty
US9554910B2 (en) 2011-10-27 2017-01-31 Biomet Manufacturing, Llc Patient-specific glenoid guide and implants
KR20130046337A (ko) 2011-10-27 2013-05-07 삼성전자주식회사 멀티뷰 디바이스 및 그 제어방법과, 디스플레이장치 및 그 제어방법과, 디스플레이 시스템
AU2012362187A1 (en) 2011-12-30 2014-07-10 Philip D. GOLE Image-overlay medical evaluation devices and techniques
US8977021B2 (en) * 2011-12-30 2015-03-10 Mako Surgical Corp. Systems and methods for customizing interactive haptic boundaries
US10363102B2 (en) 2011-12-30 2019-07-30 Mako Surgical Corp. Integrated surgery method
US9286355B2 (en) * 2012-01-16 2016-03-15 Emovi Inc. Method and system for human joint treatment plan and personalized surgery planning using 3-D kinematics, fusion imaging and simulation
US9408686B1 (en) 2012-01-20 2016-08-09 Conformis, Inc. Devices, systems and methods for manufacturing orthopedic implants
CN106821557B (zh) * 2012-03-30 2018-12-25 德普伊新特斯产品有限责任公司 无杆肱骨部件和相关的外科器械及方法
US20130267838A1 (en) 2012-04-09 2013-10-10 Board Of Regents, The University Of Texas System Augmented Reality System for Use in Medical Procedures
KR101711358B1 (ko) 2012-05-02 2017-02-28 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 의학적 애플리케이션들에서 증강 현실을 위한 동적 모델을 이용한 4 차원 이미지 등록
US9622820B2 (en) * 2012-05-03 2017-04-18 Siemens Product Lifecycle Management Software Inc. Feature-driven rule-based framework for orthopedic surgical planning
WO2013168117A2 (en) * 2012-05-09 2013-11-14 Koninklijke Philips N.V. Interventional information brokering medical tracking interface
CA2874230A1 (en) * 2012-05-22 2013-11-28 Mako Surgical Corp. Soft tissue cutting instrument and method of use
US9675471B2 (en) 2012-06-11 2017-06-13 Conformis, Inc. Devices, techniques and methods for assessing joint spacing, balancing soft tissues and obtaining desired kinematics for joint implant components
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US20140022283A1 (en) 2012-07-20 2014-01-23 University Health Network Augmented reality apparatus
US20140081659A1 (en) 2012-09-17 2014-03-20 Depuy Orthopaedics, Inc. Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking
IN2015DN02636A (ja) 2012-09-21 2015-09-18 Conformis Inc
US10108266B2 (en) * 2012-09-27 2018-10-23 The Board Of Trustees Of The University Of Illinois Haptic augmented and virtual reality system for simulation of surgical procedures
US20140088989A1 (en) * 2012-09-27 2014-03-27 Balaji Krishnapuram Rapid Learning Community for Predictive Models of Medical Knowledge
US9888967B2 (en) * 2012-12-31 2018-02-13 Mako Surgical Corp. Systems and methods for guiding a user during surgical planning
US20170128059A1 (en) * 2013-01-08 2017-05-11 Prescient Surgical, Inc. Methods and apparatus for prevention of surgical site infections
US9943370B2 (en) 2013-01-30 2018-04-17 Conformis, Inc. Advanced methods and techniques for designing knee implant components
US9387083B2 (en) 2013-01-30 2016-07-12 Conformis, Inc. Acquiring and utilizing kinematic information for patient-adapted implants, tools and surgical procedures
US20140221819A1 (en) 2013-02-01 2014-08-07 David SARMENT Apparatus, system and method for surgical navigation
EP2967661B1 (en) 2013-03-13 2019-07-31 Think Surgical, Inc. Methods, devices and systems for planning computer-assisted robotic surgery
US9220572B2 (en) 2013-03-14 2015-12-29 Biomet Manufacturing, Llc Method for implanting a hip prosthesis and related system
US9778648B2 (en) 2013-03-15 2017-10-03 Biomet Manufacturing, Llc Systems and methods for remote manufacturing of medical devices
US9641799B2 (en) * 2013-03-15 2017-05-02 James Paul Smurro Multimodal cognitive communications and collaborative knowledge exchange with visual neural networking and packetized augmented intelligence
US10064630B2 (en) * 2013-03-15 2018-09-04 Teleflex Medical Devices S.À R.L. Driver assemblies, drivers, intraosseous devices, and methods for determining voltages and/or impedances in biological material
US20140276872A1 (en) 2013-03-15 2014-09-18 Otismed Corporation Customized acetabular cup positioning guide and system and method of generating and employing such a guide
EP3003197B1 (en) 2013-05-30 2022-09-28 EOS Imaging Method for designing a patient specific orthopaedic device
US10070929B2 (en) * 2013-06-11 2018-09-11 Atsushi Tanji Surgical operation support system, surgical operation support apparatus, surgical operation support method, surgical operation support program, and information processing apparatus
WO2014200017A1 (ja) 2013-06-11 2014-12-18 Tanji Atsushi 骨切支援システム、情報処理装置、画像処理方法、および画像処理プログラム
US9952042B2 (en) 2013-07-12 2018-04-24 Magic Leap, Inc. Method and system for identifying a user location
US9901366B2 (en) 2013-07-27 2018-02-27 Lawrence A. Colby Systems and methods for enhancing the visibility of medical items
US10433911B2 (en) 2013-09-18 2019-10-08 iMIRGE Medical INC. Optical targeting and visualization of trajectories
EP3628245A3 (en) 2013-10-10 2020-04-22 Imascap Method for designing and producing a shoulder surgery guide
WO2015056097A1 (en) * 2013-10-17 2015-04-23 Imascap Methods, systems and devices for pre-operatively planned glenoid placement guides and uses thereof
EP3925574A1 (en) 2013-11-08 2021-12-22 Imascap Pre-operatively planned adaptive glenoid implants and method for planning its design
US20150133820A1 (en) * 2013-11-13 2015-05-14 Motorika Limited Virtual reality based rehabilitation apparatuses and methods
US20150150688A1 (en) 2013-12-03 2015-06-04 Biomet Manufacturing, Llc Patient-Specific Glenoid Implant
EP3084747B1 (en) * 2013-12-20 2022-12-14 Intuitive Surgical Operations, Inc. Simulator system for medical procedure training
US9956083B2 (en) * 2013-12-30 2018-05-01 Deltoid, Llc Instruments and techniques for orienting prosthesis components for joint prostheses
JP6594883B2 (ja) * 2013-12-31 2019-10-23 マコ サージカル コーポレーション カスタマイズされた触覚境界線を生成するためのシステムおよび方法
CN104766127A (zh) * 2014-01-02 2015-07-08 深圳市永泰中天软件股份有限公司 一种预测患者手术后住院天数的方法
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
EP3097448A1 (en) 2014-01-21 2016-11-30 Trophy Method for implant surgery using augmented visualization
US9504529B2 (en) * 2014-02-24 2016-11-29 Vida Diagnostics, Inc. Treatment outcome prediction for lung volume reduction procedures
AU2015234609A1 (en) 2014-03-27 2016-10-13 Alma Mater Studiorum Universita Di Bologna Computer aided surgical navigation and planning in implantology
WO2015154069A1 (en) * 2014-04-04 2015-10-08 Surgical Theater LLC Dynamic and interactive navigation in a surgical environment
US20170042631A1 (en) 2014-04-22 2017-02-16 Surgerati, Llc Intra-operative medical image viewing system and method
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US20150366628A1 (en) 2014-06-18 2015-12-24 Covidien Lp Augmented surgical reality environment system
WO2016004993A1 (en) 2014-07-09 2016-01-14 Episurf Ip-Management Ab Design method of a rig
EP3166540B1 (en) 2014-07-09 2019-06-19 Episurf IP-Management AB A surgical joint implant
US20160015474A1 (en) 2014-07-16 2016-01-21 Claronav Inc. Surgical instrument tracking assembly
WO2016014163A1 (en) * 2014-07-25 2016-01-28 The Regents Of The University Of California Three dimensional sensor-based interactive pain maps for localizing pain
CA2956660A1 (en) * 2014-08-01 2016-02-04 Smith & Nephew, Inc. Providing implants for surgical procedures
US9547940B1 (en) 2014-09-12 2017-01-17 University Of South Florida Systems and methods for providing augmented reality in minimally invasive surgery
WO2016038585A1 (en) * 2014-09-12 2016-03-17 Blacktree Fitness Technologies Inc. Portable devices and methods for measuring nutritional intake
US9414846B2 (en) 2014-10-22 2016-08-16 Bullseye Hip Replacement, Llc Devices and methods for knee replacement
GB201501157D0 (en) 2015-01-23 2015-03-11 Scopis Gmbh Instrument guidance system for sinus surgery
CN107004044A (zh) * 2014-11-18 2017-08-01 皇家飞利浦有限公司 增强现实设备的用户引导系统和方法、使用
US10702353B2 (en) 2014-12-05 2020-07-07 Camplex, Inc. Surgical visualizations systems and displays
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US9538962B1 (en) 2014-12-31 2017-01-10 Verily Life Sciences Llc Heads-up displays for augmented reality network in a medical environment
GB2534359A (en) 2015-01-15 2016-07-27 Corin Ltd System and method for patient implant alignment
WO2016115423A1 (en) 2015-01-16 2016-07-21 Think Surgical, Inc. Computer assisted implant placement
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
FR3032282B1 (fr) * 2015-02-03 2018-09-14 Francois Duret Dispositif de visualisation de l'interieur d'une bouche
CN107847289A (zh) * 2015-03-01 2018-03-27 阿里斯医疗诊断公司 现实增强的形态学手术
US20160324580A1 (en) 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
CA2979424C (en) 2015-03-25 2023-11-07 Orthosoft Inc. Method and system for assisting implant placement in thin bones such as scapula
USRE49930E1 (en) 2015-03-26 2024-04-23 Universidade De Coimbra Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera
US20160287337A1 (en) * 2015-03-31 2016-10-06 Luke J. Aram Orthopaedic surgical system and method for patient-specific surgical procedure
EP3280344A2 (en) 2015-04-07 2018-02-14 King Abdullah University Of Science And Technology Method, apparatus, and system for utilizing augmented reality to improve surgery
EP3284252B1 (en) 2015-04-13 2021-07-21 Universidade De Coimbra Methods and systems for camera characterization in terms of response function, color, and vignetting under non-uniform illumination
EP3788967B1 (en) * 2015-04-24 2024-10-16 Biomet Manufacturing, LLC Patient-specific augmented glenoid systems
US9972133B2 (en) * 2015-04-24 2018-05-15 Jpw Industries Inc. Wearable display for use with tool
US20160314717A1 (en) 2015-04-27 2016-10-27 KindHeart, Inc. Telerobotic surgery system for remote surgeon training using robotic surgery station coupled to remote surgeon trainee and instructor stations and associated methods
US9503681B1 (en) * 2015-05-29 2016-11-22 Purdue Research Foundation Simulated transparent display with augmented reality for remote collaboration
CN108472049B (zh) * 2015-06-09 2021-09-14 捷迈有限公司 用于全踝关节置换的患者特定器械及方法
US9665170B1 (en) 2015-06-10 2017-05-30 Visionary Vr, Inc. System and method for presenting virtual reality content to a user based on body posture
JP6482103B2 (ja) * 2015-06-26 2019-03-13 Necソリューションイノベータ株式会社 測定装置及び測定方法
US10176642B2 (en) * 2015-07-17 2019-01-08 Bao Tran Systems and methods for computer assisted operation
CA2976516C (en) 2015-07-27 2022-11-22 Synaptive Medical (Barbados) Inc. Navigational feedback for intraoperative waypoint
US20170039986A1 (en) 2015-08-07 2017-02-09 Microsoft Technology Licensing, Llc Mixed Reality Social Interactions
US9913691B2 (en) 2015-08-12 2018-03-13 The Cleveland Clinic Foundation System and method for model-based surgical planning
US9855146B2 (en) 2015-08-24 2018-01-02 Arthrex, Inc. Arthroscopic resurfacing techniques
US10810799B2 (en) 2015-09-28 2020-10-20 Montefiore Medical Center Methods and devices for intraoperative viewing of patient 3D surface images
EP3361979A4 (en) 2015-10-14 2019-06-26 Surgical Theater LLC SURGICAL NAVIGATION WITH EXTENDED REALITY
US10772688B2 (en) * 2015-10-30 2020-09-15 Covidien Lp Input handles for robotic surgical systems having visual feedback
US10321961B2 (en) 2015-11-05 2019-06-18 Howmedica Osteonics Corp. Patient specific implantation method for range of motion hip impingement
US10052170B2 (en) 2015-12-18 2018-08-21 MediLux Capitol Holdings, S.A.R.L. Mixed reality imaging system, apparatus and surgical suite
US10991070B2 (en) * 2015-12-18 2021-04-27 OrthoGrid Systems, Inc Method of providing surgical guidance
DE102015226669B4 (de) 2015-12-23 2022-07-28 Siemens Healthcare Gmbh Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
US20170258390A1 (en) * 2016-02-12 2017-09-14 Newton Howard Early Detection Of Neurodegenerative Disease
WO2017145155A1 (en) 2016-02-22 2017-08-31 Real View Imaging Ltd. A method and system for displaying holographic images within a real object
EP4394703A3 (en) 2016-03-14 2024-10-02 Mohamed R. Mahfouz Method of designing a dynamic patient-specific orthopedic implant
EP3685804A1 (en) 2016-03-25 2020-07-29 Tornier Joint prosthesis spacer
US20170286617A1 (en) 2016-04-03 2017-10-05 Michael DK. Zimmer Holomedicine: Methodology, Process, Practice and Delivery
US9791703B1 (en) 2016-04-13 2017-10-17 Microsoft Technology Licensing, Llc Waveguides with extended field of view
US20170296292A1 (en) 2016-04-16 2017-10-19 Eitezaz MAHMOOD Systems and Methods for Surgical Imaging
US10813700B2 (en) 2016-04-27 2020-10-27 Arthrology Consulting, Llc Methods for augmenting a surgical field with virtual guidance and tracking and adapting to deviation from a surgical plan
US11253321B2 (en) 2016-04-27 2022-02-22 Arthrology Consulting, Llc Methods for augmenting a surgical field with virtual guidance and tracking and adapting to deviation from a surgical plan
US20170312032A1 (en) * 2016-04-27 2017-11-02 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content
US10806518B2 (en) 2016-04-27 2020-10-20 Arthrology Consulting, Llc Methods for augmenting a surgical field with virtual guidance and tracking and adapting to deviation from a surgical plan
US10194990B2 (en) 2016-04-27 2019-02-05 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content
CN105788390A (zh) * 2016-04-29 2016-07-20 吉林医药学院 基于增强现实的医学解剖辅助教学系统
US10357315B2 (en) 2016-05-27 2019-07-23 Mako Surgical Corp. Preoperative planning and associated intraoperative registration for a surgical system
US10019629B2 (en) * 2016-05-31 2018-07-10 Microsoft Technology Licensing, Llc Skeleton-based action detection using recurrent neural network
US11612446B2 (en) * 2016-06-03 2023-03-28 Covidien Lp Systems, methods, and computer-readable program products for controlling a robotically delivered manipulator
WO2017214656A1 (en) * 2016-06-14 2017-12-21 360 Knee Systems Pty Ltd Graphical representation of a dynamic knee score for a knee surgery
US10136952B2 (en) 2016-06-16 2018-11-27 Zimmer, Inc. Soft tissue balancing in articular surgery
EP3471646B1 (en) 2016-06-17 2023-07-05 Zimmer, Inc. System for intraoperative surgical planning
WO2017221257A1 (en) 2016-06-23 2017-12-28 Mazor Robotics Ltd. Minimally invasive intervertebral rod insertion
EP3481318B1 (en) * 2016-07-08 2022-09-14 Biomet Manufacturing, LLC Reverse shoulder pre-operative planning
JP7123031B2 (ja) * 2016-07-15 2022-08-22 マコ サージカル コーポレーション ロボット支援再置換手技用のシステム
US10398514B2 (en) 2016-08-16 2019-09-03 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
US11071596B2 (en) 2016-08-16 2021-07-27 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
WO2018063528A1 (en) 2016-08-16 2018-04-05 Insight Medical Systems, Inc. Systems for sensory augmentation in medical procedures
WO2018032083A1 (en) 2016-08-17 2018-02-22 Synaptive Medical (Barbados) Inc. Methods and systems for registration of virtual space with real space in an augmented reality system
JP6813666B2 (ja) 2016-08-22 2021-01-13 マジック リープ, インコーポレイテッドMagic Leap,Inc. 多層回折接眼レンズ
US10849689B1 (en) * 2016-08-26 2020-12-01 Smith & Nephew, Inc. Technologies for preoperative implant size estimation
US11370113B2 (en) * 2016-09-06 2022-06-28 Verily Life Sciences Llc Systems and methods for prevention of surgical mistakes
EP3512452A1 (en) 2016-09-16 2019-07-24 Zimmer, Inc. Augmented reality surgical technique guidance
US10568703B2 (en) 2016-09-21 2020-02-25 Verb Surgical Inc. User arm support for use in a robotic surgical system
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
JP7221862B2 (ja) * 2016-09-30 2023-02-14 コーニンクレッカ フィリップス エヌ ヴェ 医療器具の位置計画及び器具誘導のための解剖学的モデル
US20180092698A1 (en) 2016-10-04 2018-04-05 WortheeMed, Inc. Enhanced Reality Medical Guidance Systems and Methods of Use
US11250950B1 (en) * 2016-10-05 2022-02-15 HVH Precision Analytics LLC Machine-learning based query construction and pattern identification for amyotrophic lateral sclerosis
US10188408B2 (en) 2016-10-18 2019-01-29 Fournitures Hospitalieres Industrie Glenoid cavity bone preparation set for setting a shoulder prosthesis, and method for implanting a shoulder prosthesis
JP7125390B2 (ja) * 2016-10-24 2022-08-24 アキリ・インタラクティヴ・ラブズ・インコーポレイテッド バイオマーカーまたは他のタイプのマーカーとして構成される認知プラットフォーム
EP4254146A1 (en) * 2016-11-03 2023-10-04 Zimmer US, Inc. Augmented reality therapeutic movement display and gesture analyzer
US10733566B1 (en) * 2016-11-11 2020-08-04 Iodine Software, LLC High fidelity clinical documentation improvement (CDI) smart scoring systems and methods
US10426551B2 (en) * 2016-12-09 2019-10-01 Microsoft Technology Licensing, Llc Personalized refractive surgery recommendations for eye patients
US10143802B2 (en) 2016-12-21 2018-12-04 Dynamic Magnetics, Llc Magnetic driver device used to power an auto injector
WO2018125812A1 (en) * 2017-01-02 2018-07-05 Gauss Surgical, Inc. Tracking surgical items with prediction of duplicate imaging of items
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
CA3049379A1 (en) 2017-01-05 2018-07-12 Philipp K. Lang Improved accuracy of displayed virtual data with optical head mount displays for mixed reality
EP3566212A4 (en) 2017-01-06 2020-08-19 Intuitive Surgical Operations Inc. SYSTEM AND PROCEDURE FOR REGISTRATION AND COORDINATED MANIPULATION OF IMAGE COMPONENTS WITH EXTENDED REALITY
WO2018132804A1 (en) 2017-01-16 2018-07-19 Lang Philipp K Optical guidance for surgical, medical, and dental procedures
US11043306B2 (en) * 2017-01-17 2021-06-22 3M Innovative Properties Company Methods and systems for manifestation and transmission of follow-up notifications
EP3360502A3 (en) 2017-01-18 2018-10-31 KB Medical SA Robotic navigation of robotic surgical systems
CN106845120A (zh) * 2017-01-19 2017-06-13 杭州古珀医疗科技有限公司 一种基于混合现实技术的远程医疗系统及其操作方法
US20210327304A1 (en) 2017-01-24 2021-10-21 Tienovix, Llc System and method for augmented reality guidance for use of equpment systems
CA3049148A1 (en) 2017-01-24 2018-08-02 Tietronix Software, Inc. System and method for three-dimensional augmented reality guidance for use of medical equipment
FR3062297B1 (fr) 2017-02-01 2022-07-15 Laurent Cazal Procede et dispositif d'assistance a la pose d'une prothese, notamment de hanche, par un chirurgien suivant differents protocoles chirurgicaux
CN110191678A (zh) * 2017-02-02 2019-08-30 史密夫和内修有限公司 用于使用机器学习进行术中韧带平衡的技术
US20200188030A1 (en) 2017-02-08 2020-06-18 Duke University Augmented Reality-Based Navigation for Use in Surgical and Non-Surgical Procedures
US11158415B2 (en) 2017-02-16 2021-10-26 Mako Surgical Corporation Surgical procedure planning system with multiple feedback loops
US10010379B1 (en) 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
US10896370B2 (en) * 2017-03-03 2021-01-19 International Business Machines Corporation Triage of training data for acceleration of large-scale machine learning
CA3055566C (en) 2017-03-07 2023-12-19 Imascap Sas Computer modeling procedures for surgical simulation and planning
WO2018162079A1 (en) 2017-03-10 2018-09-13 Brainlab Ag Augmented reality pre-registration
US11103311B2 (en) 2017-03-10 2021-08-31 Biomet Manufacturing, Llc Augmented reality supported knee surgery
US10575905B2 (en) 2017-03-13 2020-03-03 Zimmer, Inc. Augmented reality diagnosis guidance
US10796499B2 (en) 2017-03-14 2020-10-06 Universidade De Coimbra Systems and methods for 3D registration of curves and surfaces using local differential information
CN110621253A (zh) 2017-03-17 2019-12-27 智能联合外科公司 用于导航手术中的增强现实显示的系统和方法
CN106886952A (zh) * 2017-03-23 2017-06-23 国网山东省电力公司夏津县供电公司 专变采集终端的作业管理方法、装置及系统
EP3381414B1 (en) 2017-03-31 2019-12-18 Tornier Positioning system for a bone resecting instrumentation and positioning kit
US20180296320A1 (en) * 2017-04-14 2018-10-18 Microsoft Technology Licensing, Llc Forecasting cataract surgery effectiveness
US11071590B2 (en) 2017-04-14 2021-07-27 Stryker Corporation Surgical systems and methods for facilitating ad-hoc intraoperative planning of surgical procedures
WO2018195456A1 (en) 2017-04-20 2018-10-25 The Cleveland Clinic Foundation System and method for holographic image-guided non-vascular percutaneous procedures
EP3613055A1 (en) 2017-04-21 2020-02-26 Zahid, Abdullah Bin Using augmented reality in surgical navigation
WO2018200767A1 (en) 2017-04-27 2018-11-01 Arthrology Consulting, Llc Method for augmenting a surgical with virtual guidance content
CN116236282A (zh) 2017-05-05 2023-06-09 史赛克欧洲运营有限公司 手术导航系统
US10716643B2 (en) 2017-05-05 2020-07-21 OrbisMV LLC Surgical projection system and method
WO2018206086A1 (en) 2017-05-09 2018-11-15 Brainlab Ag Generation of augmented reality image of a medical device
US10722223B2 (en) 2017-05-31 2020-07-28 Medos International Sarl Coupling devices for surgical instruments and related methods
US10242292B2 (en) * 2017-06-13 2019-03-26 Digital Surgery Limited Surgical simulation for training detection and classification neural networks
US11202675B2 (en) 2017-06-14 2021-12-21 Brainlab Ag Implant placement planning
US9924921B1 (en) * 2017-06-20 2018-03-27 Qualcomm Incorporated System for mapping joint performance
US10338400B2 (en) 2017-07-03 2019-07-02 Holovisions LLC Augmented reality eyewear with VAPE or wear technology
US10959742B2 (en) * 2017-07-11 2021-03-30 Tornier, Inc. Patient specific humeral cutting guides
US10578869B2 (en) 2017-07-24 2020-03-03 Mentor Acquisition One, Llc See-through computer display systems with adjustable zoom cameras
US11409105B2 (en) 2017-07-24 2022-08-09 Mentor Acquisition One, Llc See-through computer display systems
EP3658233A4 (en) 2017-07-28 2021-01-20 Edda Technology, Inc. PROCESS AND SYSTEM FOR SURGICAL PLANNING IN A MIXED REALITY ENVIRONMENT
US11266328B2 (en) * 2017-08-03 2022-03-08 Latella Sports Technologies, LLC Systems and methods for evaluating body motion
WO2019036524A1 (en) 2017-08-14 2019-02-21 Scapa Flow, Llc SYSTEM AND METHOD USING ENHANCED REALITY WITH FORMS ALIGNMENT FOR MEDICAL DEVICE INSTALLATION IN BONE
EP3443923B1 (en) 2017-08-15 2023-04-19 Holo Surgical Inc. Surgical navigation system for providing an augmented reality image during operation
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
EP3443888A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for displaying automatically segmented individual parts of anatomy in a surgical navigation system
US11687800B2 (en) * 2017-08-30 2023-06-27 P Tech, Llc Artificial intelligence and/or virtual reality for activity optimization/personalization
CN107704991A (zh) * 2017-08-30 2018-02-16 国网北京市电力公司 规范巡检流程的方法和装置
US10861236B2 (en) 2017-09-08 2020-12-08 Surgical Theater, Inc. Dual mode augmented reality surgical system and method
WO2019051464A1 (en) 2017-09-11 2019-03-14 Lang Philipp K INCREASED REALITY DISPLAY FOR VASCULAR AND OTHER INTERVENTIONS, COMPENSATION FOR CARDIAC AND RESPIRATORY MOVEMENT
MX2020002530A (es) 2017-09-11 2020-07-13 Ericsson Telefon Ab L M Indicacion de haces para control de potencia de enlace ascendente.
US11234770B2 (en) * 2017-09-12 2022-02-01 Biomet Manufacturing, Llc Femoral medial condyle spherical center tracking
KR102510174B1 (ko) * 2017-09-13 2023-03-14 삼성전자주식회사 질병 예측 모델 생성 장치, 질병 예측 장치 및 방법
US11272985B2 (en) 2017-11-14 2022-03-15 Stryker Corporation Patient-specific preoperative planning simulation techniques
US11350901B2 (en) * 2017-11-27 2022-06-07 Case Western Reserve University Recurrence prognosis and prediction of added benefit of adjuvant chemotherapy in early stage non-small cell lung cancer with radiomic features on baseline computed tomography
EP3498212A1 (en) 2017-12-12 2019-06-19 Holo Surgical Inc. A method for patient registration, calibration, and real-time augmented reality image display during surgery
US10413363B2 (en) 2017-12-15 2019-09-17 Medtronic, Inc. Augmented reality solution to optimize the directional approach and therapy delivery of interventional cardiology tools
US11179200B2 (en) 2017-12-15 2021-11-23 Medtronic, Inc. Augmented reality solution to disrupt, transform and enhance cardiovascular surgical and/or procedural mapping navigation and diagnostics
US11058497B2 (en) 2017-12-26 2021-07-13 Biosense Webster (Israel) Ltd. Use of augmented reality to assist navigation during medical procedures
US11969216B2 (en) * 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US20210059762A1 (en) 2017-12-28 2021-03-04 Changi General Hospital Pte Ltd Motion compensation platform for image guided percutaneous access to bodily organs and structures
EP3732123A4 (en) * 2017-12-29 2021-06-02 KONE Corporation ESCAPE SURVEILLANCE SYSTEM, PROCEDURES, SOUND DATA COLLECTOR, AND EQUIPMENT FOR IT
US11657901B2 (en) * 2018-01-05 2023-05-23 Koninklijke Philips N.V. System and method for prediction-model-based display of distributions of health outcome information for patient populations in geographical areas
WO2019139931A1 (en) 2018-01-10 2019-07-18 Covidien Lp Guidance for placement of surgical ports
WO2019141704A1 (en) 2018-01-22 2019-07-25 Medivation Ag An augmented reality surgical guidance system
WO2019148154A1 (en) 2018-01-29 2019-08-01 Lang Philipp K Augmented reality guidance for orthopedic and other surgical procedures
US11244508B2 (en) 2018-02-03 2022-02-08 The Johns Hopkins University Augmented reality display for surgical procedures
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US10383692B1 (en) 2018-04-13 2019-08-20 Taiwan Main Orthopaedic Biotechnology Co., Ltd. Surgical instrument guidance system
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US10869727B2 (en) 2018-05-07 2020-12-22 The Cleveland Clinic Foundation Live 3D holographic guidance and navigation for performing interventional procedures
WO2019213777A1 (en) 2018-05-10 2019-11-14 Live Vue Technologies Inc. System and method for assisting a user in a surgical procedure
US10825563B2 (en) 2018-05-14 2020-11-03 Novarad Corporation Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient
EP3810015A1 (en) 2018-06-19 2021-04-28 Tornier, Inc. Mixed-reality surgical system with physical markers for registration of virtual models
US11357576B2 (en) 2018-07-05 2022-06-14 Dentsply Sirona Inc. Method and system for augmented reality guided surgery
DE102018116558A1 (de) 2018-07-09 2020-01-09 Aesculap Ag Medizintechnisches Instrumentarium und Verfahren
EP3840683A4 (en) * 2018-07-16 2022-06-29 Medtronic Sofamor Danek USA, Inc. Spinal surgery outcome prediction
JP7466928B2 (ja) * 2018-09-12 2024-04-15 オルソグリッド システムズ ホールディング,エルエルシー 人工知能の術中外科的ガイダンスシステムと使用方法
US20200093388A1 (en) 2018-09-21 2020-03-26 Braemar Manufacturing, Llc Systems and Methods for Processing and Presenting Arrhythmia Information for the Identification of Neurological Disease
WO2020072335A1 (en) 2018-10-04 2020-04-09 Smith & Nephew, Inc. Dual-position tracking hardware mount for surgical navigation
EP3640949A1 (en) 2018-10-17 2020-04-22 Incremed AG Augmented reality with medical imaging
BR102018072428A2 (pt) 2018-10-31 2020-05-26 Protótipos Indústria E Comércio De Produtos Protótipos Ltda - Me Sistema guia com realidade aumentada
US20220079675A1 (en) 2018-11-16 2022-03-17 Philipp K. Lang Augmented Reality Guidance for Surgical Procedures with Adjustment of Scale, Convergence and Focal Plane or Focal Point of Virtual Data
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US10930395B2 (en) * 2018-11-23 2021-02-23 Asheleigh Adeline Mowery System for surgical decisions using deep learning
US10939977B2 (en) 2018-11-26 2021-03-09 Augmedics Ltd. Positioning marker
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
EP3682808A1 (fr) 2019-01-17 2020-07-22 Université Paris Est Créteil Val De Marne Dispositif médical en radiologie interventionnelle de guidage en temps réel d'une aiguille médicale d'opération dans un volume
JP2022517474A (ja) 2019-01-17 2022-03-09 フイルメニツヒ ソシエテ アノニム 制汗剤または消臭剤組成物
US11730389B2 (en) 2019-01-28 2023-08-22 Incremed Ag Method and system for supporting medical interventions
CN113473936A (zh) 2019-02-05 2021-10-01 史密夫和内修有限公司 机器人手术数据用于长期护理期
WO2020180917A1 (en) 2019-03-04 2020-09-10 Smith & Nephew, Inc. Co-registration for augmented reality and surgical navigation
WO2020186194A1 (en) 2019-03-13 2020-09-17 Smith & Nephew Inc. Augmented reality assisted surgical tool alignment
AU2020244839B2 (en) 2019-03-26 2023-02-09 Mighty Oak Medical, Inc. Patient-matched apparatus for use in augmented reality assisted surgical procedures and methods for using the same
US12053333B2 (en) 2019-04-04 2024-08-06 The Board Of Regents Of The University Of Oklahoma Surgical enhanced visualization system and method of use
WO2020220208A1 (en) 2019-04-29 2020-11-05 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for object positioning and image-guided surgery
US11389304B1 (en) 2019-05-06 2022-07-19 Smith & Nephew, Inc. Devices, systems and methods for providing instrument orientation feedback
US20200352655A1 (en) 2019-05-06 2020-11-12 ARUS Inc. Methods, devices, and systems for augmented reality guidance of medical devices into soft tissue
WO2020231655A1 (en) 2019-05-14 2020-11-19 Tornier, Inc. Bone wall tracking and guidance for orthopedic implant placement
US11413094B2 (en) 2019-05-24 2022-08-16 University Health Network System and method for multi-client deployment of augmented reality instrument tracking
US11638613B2 (en) 2019-05-29 2023-05-02 Stephen B. Murphy Systems and methods for augmented reality based surgical navigation
US20200390503A1 (en) 2019-06-13 2020-12-17 Carlos Quiles Casas Systems and methods for surgical navigation and orthopaedic fixation
CN110353806B (zh) 2019-06-18 2021-03-12 北京航空航天大学 用于微创全膝关节置换手术的增强现实导航方法及系统
JP2022540642A (ja) 2019-07-09 2022-09-16 マテリアライズ・ナムローゼ・フエンノートシャップ 拡張現実支援関節形成術
EP3982862A1 (en) 2019-07-16 2022-04-20 Smith&Nephew, Inc. Systems for augmented reality assisted trauma fixation
WO2021016429A1 (en) 2019-07-25 2021-01-28 Tornier, Inc. Positioning a camera for perspective sharing of a surgical site
US11574446B2 (en) 2019-08-30 2023-02-07 National Central University Digital image reality aligning kit and method applied to mixed reality system for surgical navigation
TWI741359B (zh) 2019-08-30 2021-10-01 國立中央大學 與手術導航系統整合之混合實境系統
KR20220129534A (ko) 2019-10-28 2022-09-23 발데마르 링크 게엠베하 운트 코.카게 3d 스캔을 구현하는 컴퓨터 지원 수술 내비게이션 시스템 및 방법
EP3878393A3 (en) 2019-10-30 2021-09-29 Orthosoft ULC Surgery assistance system
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US20210169581A1 (en) 2019-12-10 2021-06-10 Globus Medical, Inc. Extended reality instrument interaction zone for navigated robotic surgery
US20210169605A1 (en) 2019-12-10 2021-06-10 Globus Medical, Inc. Augmented reality headset for navigated robotic surgery
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
US11983824B2 (en) 2020-01-31 2024-05-14 Surgical Theater, Inc. System and method for augmenting and synchronizing a virtual model with a physical model
JP7282816B2 (ja) 2020-02-04 2023-05-29 グローバス メディカル インコーポレイティッド ナビゲートされたロボット外科手術のためのエクステンデッドリアリティ器具相互作用ゾーン
EP4099934A1 (en) 2020-02-07 2022-12-14 Smith & Nephew, Inc. Augmented reality ready optical tracking system
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
JP2023513692A (ja) 2020-02-10 2023-04-03 インサイト メディカル システムズ インコーポレイテッド 医療処置における感覚拡張の為のシステム及び方法
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US20210251717A1 (en) 2020-02-19 2021-08-19 Globus Medical, Inc. Extended reality headset opacity filter for navigated surgery
FR3107449B1 (fr) 2020-02-20 2022-01-21 One Ortho Système de guidage en réalité augmentée d’une opération chirurgicale d’une partie d’articulation d’un os
WO2021188757A1 (en) 2020-03-20 2021-09-23 The Johns Hopkins University Augmented reality based surgical navigation system
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US12042341B2 (en) * 2020-05-06 2024-07-23 Howmedica Osteonics Corp. Registration marker with anti-rotation base for orthopedic surgical procedures
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382713B2 (en) 2020-06-16 2022-07-12 Globus Medical, Inc. Navigated surgical system with eye to XR headset display calibration
DE102020116073A1 (de) 2020-06-18 2021-12-23 Aesculap Ag Medizintechnische Vorrichtung, Verfahren zum Registrieren eines Modelldatensatzes, Datenverarbeitungsprogramm und Programmspeichermedium
EP3937139A1 (en) 2020-07-06 2022-01-12 Technische Universität München Method of aligning virtual and real objects
US20220020219A1 (en) 2020-07-15 2022-01-20 Orthosoft Ulc Augmented reality bone landmark display
WO2022031564A1 (en) 2020-08-07 2022-02-10 Surgical Theater, Inc. System and method for augmented reality spine surgery
US20220051483A1 (en) 2020-08-17 2022-02-17 Russell Todd Nevins System and method for location determination using a mixed reality device and a 3d spatial mapping camera
EP3995098A1 (en) 2020-11-09 2022-05-11 Koninklijke Philips N.V. Deep brain path planning using augmented reality
US12016633B2 (en) 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
WO2022147591A1 (en) 2021-01-06 2022-07-14 Precision AI Pty Ltd Surgical system
US11172996B1 (en) 2021-01-13 2021-11-16 MediVis, Inc. Instrument-based registration and alignment for augmented reality environments
WO2022169906A1 (en) 2021-02-02 2022-08-11 Circinus Medical Technology Llc Systems and methods for simulating three- dimensional orientations of surgical hardware devices about an insertion point of an anatomy
US11786206B2 (en) 2021-03-10 2023-10-17 Onpoint Medical, Inc. Augmented reality guidance for imaging systems
US20230018541A1 (en) 2021-07-08 2023-01-19 Videntium, Inc. Augmented/mixed reality system and method for orthopaedic arthroplasty
US20230056596A1 (en) 2021-08-12 2023-02-23 Smith & Nephew, Inc. System and method for implant surface matching for joint revision surgery
EP4398830A1 (en) 2021-09-08 2024-07-17 Arthrex, Inc. Surgical systems and methods for positioning objects using augmented reality navigation
US20230079807A1 (en) 2021-09-14 2023-03-16 Arthrex, Inc. Surgical planning systems and methods for providing surgical recommendations based on deviations from past preoperative surgical plans
WO2023086592A2 (en) 2021-11-12 2023-05-19 Materialise Nv Systems, methods and devices for augmented reality assisted surgery
US20230165639A1 (en) 2021-12-01 2023-06-01 Globus Medical, Inc. Extended reality systems with three-dimensional visualizations of medical image scan slices
WO2023110124A1 (en) 2021-12-17 2023-06-22 Metamorphosis Gmbh Precise 3d-navigation based on imaging direction determination of single intraoperative 2d x-ray images
US20230233258A1 (en) 2022-01-26 2023-07-27 Polarisar, Inc. Augmented reality systems and methods for surgical planning and guidance using removable resection guide marker
US20230293237A1 (en) 2022-03-18 2023-09-21 DePuy Synthes Products, Inc. Surgical systems, methods, and devices employing augmented reality (ar) instrument guidance
WO2023175587A1 (en) 2022-03-18 2023-09-21 DePuy Synthes Products, Inc. Surgical systems, methods, and devices employing augmented reality (ar) for planning
US20230293259A1 (en) 2022-03-18 2023-09-21 DePuy Synthes Products, Inc. Surgical systems, methods, and devices employing augmented reality (ar) graphical guidance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071658A (ja) 2012-09-28 2014-04-21 Nippon Koden Corp 手術支援システム
US20150058031A1 (en) 2013-08-20 2015-02-26 Kyle Samani Methods and systems for a medical checklist
US20170258526A1 (en) 2016-03-12 2017-09-14 Philipp K. Lang Devices and methods for surgery

Also Published As

Publication number Publication date
US12046349B2 (en) 2024-07-23
US12112269B2 (en) 2024-10-08
US20210093390A1 (en) 2021-04-01
WO2019245869A1 (en) 2019-12-26
AU2023285959A1 (en) 2024-01-25
US20210097880A1 (en) 2021-04-01
AU2019289084A1 (en) 2021-01-28
WO2019245861A3 (en) 2020-03-05
WO2019245866A3 (en) 2020-01-23
WO2019245849A1 (en) 2019-12-26
US20210093413A1 (en) 2021-04-01
US11657287B2 (en) 2023-05-23
WO2019245862A1 (en) 2019-12-26
AU2019289081A1 (en) 2021-01-28
US20210085220A1 (en) 2021-03-25
US20210093329A1 (en) 2021-04-01
US20210100620A1 (en) 2021-04-08
AU2019289083B2 (en) 2022-09-15
US20190380792A1 (en) 2019-12-19
US20210104325A1 (en) 2021-04-08
AU2023208193A1 (en) 2023-08-17
EP3810016A1 (en) 2021-04-28
EP3810017A1 (en) 2021-04-28
EP3810007A1 (en) 2021-04-28
EP3810015A1 (en) 2021-04-28
WO2019245868A1 (en) 2019-12-26
AU2019289085B2 (en) 2022-09-01
US20210093415A1 (en) 2021-04-01
AU2023285959B2 (en) 2024-07-18
US20210093386A1 (en) 2021-04-01
CN112566578A (zh) 2021-03-26
US11439469B2 (en) 2022-09-13
US20210093391A1 (en) 2021-04-01
WO2019245848A1 (en) 2019-12-26
WO2019245854A2 (en) 2019-12-26
WO2019245853A1 (en) 2019-12-26
WO2019245860A1 (en) 2019-12-26
EP3810021A1 (en) 2021-04-28
US10987176B2 (en) 2021-04-27
US20240312599A1 (en) 2024-09-19
US11645531B2 (en) 2023-05-09
CN112566578B (zh) 2024-09-20
US12112843B2 (en) 2024-10-08
WO2019245857A1 (en) 2019-12-26
CN112584791A (zh) 2021-03-30
EP3810018A1 (en) 2021-04-28
US20210093414A1 (en) 2021-04-01
EP3810009A1 (en) 2021-04-28
EP3810013A1 (en) 2021-04-28
EP3810020A1 (en) 2021-04-28
US20210161613A1 (en) 2021-06-03
US12020801B2 (en) 2024-06-25
EP3810010A1 (en) 2021-04-28
CN112566580A (zh) 2021-03-26
JP7271579B2 (ja) 2023-05-11
WO2019245851A1 (en) 2019-12-26
US11571263B2 (en) 2023-02-07
WO2019245854A3 (en) 2020-02-20
EP3809966A2 (en) 2021-04-28
US20210093395A1 (en) 2021-04-01
US20210093387A1 (en) 2021-04-01
CN112584789B (zh) 2024-08-16
WO2019245864A1 (en) 2019-12-26
US20210093388A1 (en) 2021-04-01
EP3810012A1 (en) 2021-04-28
WO2019245870A1 (en) 2019-12-26
CN112584790A (zh) 2021-03-30
EP3810011A2 (en) 2021-04-28
WO2019245867A1 (en) 2019-12-26
AU2019289077A1 (en) 2021-01-28
AU2019289081B2 (en) 2022-02-24
US20210097886A1 (en) 2021-04-01
WO2019245852A1 (en) 2019-12-26
CN112584790B (zh) 2024-08-30
US20210093389A1 (en) 2021-04-01
EP3810014A1 (en) 2021-04-28
US20210290319A1 (en) 2021-09-23
JP2021526940A (ja) 2021-10-11
US20210134467A1 (en) 2021-05-06
AU2019289085A1 (en) 2021-01-28
EP3810008A2 (en) 2021-04-28
US20210093385A1 (en) 2021-04-01
US20210093410A1 (en) 2021-04-01
US20210093392A1 (en) 2021-04-01
CN112566579A (zh) 2021-03-26
US11478310B2 (en) 2022-10-25
US12050999B2 (en) 2024-07-30
WO2019245856A1 (en) 2019-12-26
JP2021527536A (ja) 2021-10-14
AU2019289084B2 (en) 2023-04-27
WO2019245865A1 (en) 2019-12-26
AU2023208193B2 (en) 2024-01-18
WO2019245861A2 (en) 2019-12-26
AU2019289083A1 (en) 2021-01-28
EP3809966B1 (en) 2023-09-13
CN112584789A (zh) 2021-03-30
US20240339195A1 (en) 2024-10-10
WO2019245866A2 (en) 2019-12-26

Similar Documents

Publication Publication Date Title
JP7247234B2 (ja) 整形外科手術のための仮想チェックリスト
US12125577B2 (en) Mixed reality-aided education using virtual models or virtual representations for orthopedic surgical procedures

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210217

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230315

R150 Certificate of patent or registration of utility model

Ref document number: 7247234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150