JP7322182B2 - 整形外科インプラント埋植のための骨壁追跡及びガイダンス - Google Patents

整形外科インプラント埋植のための骨壁追跡及びガイダンス Download PDF

Info

Publication number
JP7322182B2
JP7322182B2 JP2021567857A JP2021567857A JP7322182B2 JP 7322182 B2 JP7322182 B2 JP 7322182B2 JP 2021567857 A JP2021567857 A JP 2021567857A JP 2021567857 A JP2021567857 A JP 2021567857A JP 7322182 B2 JP7322182 B2 JP 7322182B2
Authority
JP
Japan
Prior art keywords
bone
virtual
sensor
distance
implant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021567857A
Other languages
English (en)
Other versions
JP2022533586A (ja
Inventor
ダッソンビル、バンジャマン
ガボリ、バンサン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Howmedica Osteonics Corp
Original Assignee
Howmedica Osteonics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Howmedica Osteonics Corp filed Critical Howmedica Osteonics Corp
Publication of JP2022533586A publication Critical patent/JP2022533586A/ja
Application granted granted Critical
Publication of JP7322182B2 publication Critical patent/JP7322182B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/40Joints for shoulders
    • A61F2/4059Humeral shafts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/46Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor
    • A61F2/4603Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof
    • A61F2/4612Special tools or methods for implanting or extracting artificial joints, accessories, bone grafts or substitutes, or particular adaptations therefor for insertion or extraction of endoprosthetic joints or of accessories thereof of shoulders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/14Surgical saws ; Accessories therefor
    • A61B17/15Guides therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/1662Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body
    • A61B17/1684Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans for particular parts of the body for the shoulder
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/16Bone cutting, breaking or removal means other than saws, e.g. Osteoclasts; Drills or chisels for bones; Trepans
    • A61B17/17Guides or aligning means for drills, mills, pins or wires
    • A61B17/1739Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body
    • A61B17/1778Guides or aligning means for drills, mills, pins or wires specially adapted for particular parts of the body for the shoulder
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • A61B2017/00026Conductivity or impedance, e.g. of tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • A61B2017/00039Electric or electromagnetic phenomena other than conductivity, e.g. capacity, inductivity, Hall effect
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00022Sensing or detecting at the treatment site
    • A61B2017/00106Sensing or detecting at the treatment site ultrasonic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00115Electrical control of surgical instruments with audible or visual output
    • A61B2017/00119Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00221Electrical control of surgical instruments with wireless transmission of data, e.g. by infrared radiation or radiowaves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0801Prevention of accidental cutting or pricking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Transplantation (AREA)
  • Epidemiology (AREA)
  • Cardiology (AREA)
  • Primary Health Care (AREA)
  • Vascular Medicine (AREA)
  • Robotics (AREA)
  • Dentistry (AREA)
  • Business, Economics & Management (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Urology & Nephrology (AREA)
  • General Business, Economics & Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Prostheses (AREA)

Description

関連出願
[0001]本特許出願は、それぞれの内容全体が参照により本明細書に組み込まれる、2019年5月14日に出願された米国仮特許出願第62/847,740号及び2019年5月14日に出願された米国仮特許出願第62/847,746号の利益を主張する。
[0002]本開示は、整形外科手術中の骨壁追跡に関する。
[0003]外科的関節修復処置は、損傷又は罹患した関節の修復術及び/又は置換術を含む。多くの場合、一例として関節形成術のような外科的関節修復処置は、損傷した関節を、患者の骨の中に埋め込まれるプロテーゼに置換することを含む。最適な手術結果を確実にするための適切にサイズ決定及び成形されたプロテーゼの適切な選択及びそのプロテーゼの適切な位置決めは困難であり得る。位置決めを支援するために、外科手術では、多くの場合、損傷した骨の表面の成形と、プロテーゼを受け入れるための骨の切断又は穿孔とを制御するために手術器具の使用を伴う。
[0004]今日では、関節修復術及び置換術のための術前計画を容易にするために骨の形状の3次元モデリングを使用する視覚化ツールが外科医に利用可能である。これらのツールは、患者の解剖学的構造に厳密に一致するインプラント及びサージカルガイドの設計及び/又は選択に関して外科医を支援することができ、患者ごとに手術計画をカスタマイズすることによって手術結果を改善することができる。
[0005]外科的関節修復処置は、損傷又は罹患した関節の修復術及び/又は置換術を含む。多くの場合、一例として関節形成術のような外科的関節修復処置は、損傷した関節を、患者の骨の中に埋め込まれるプロテーゼに置換することを含む。最適な手術結果を確実にするための適切にサイズ決定及び成形されたプロテーゼの適切な選択及びそのプロテーゼの適切な位置決めは困難であり得る。位置決めを支援するために、外科手術では、多くの場合、損傷した骨の表面の成形と、プロテーゼを受け入れるための骨の切断又は穿孔とを制御するために手術器具の使用を伴う。
[0006]一例によれば、デバイスは、患者内の骨壁までの距離を表す第1の値を感知するための第1のセンサと、患者内のインプラント部品までの距離を表す第2の値を感知するように構成された第2のセンサと、第1の値及び第2の値を処理するように構成された処理回路と、第1の値及び第2の値に基づいて出力を生成するように構成された送信回路とを含む。
[0007]別の例によれば、デバイスは、信号を受信するように構成された受信回路と、ここにおいて、信号は、骨とインプラント部品との間の1つ又は複数の距離を示すデータを含み、骨とインプラント部品との間の1つ又は複数の距離は、骨上の1つ又は複数の位置に対応し、骨とインプラント部品との間の1つ又は複数の距離に基づいて出力を生成することを出力デバイスに行わせるためにデータを処理するように構成された処理回路とを含む。
[0008]別の例によれば、方法は、第1のセンサからのセンサ出力に基づいて、第1のセンサと骨の外壁との間の距離に対応する第1の距離を決定することと、第2のセンサからのセンサ出力に基づいて、第2のセンサとプロテーゼとの間の距離に対応する第2の距離を決定することと、第1の距離及び第2の距離に基づいて、インプラント部品から骨までの距離を決定することと、インプラント部品から骨までの距離に基づいて出力を生成することととを含む。
[0009]本開示の様々な例の詳細は、添付の図面及び以下の説明に記載されている。様々な特徴、目的、及び利点は、説明、図面、及び特許請求の範囲から明らかになるであろう。
[0010]図1は、本開示の一例による、整形外科手術システムのブロック図である。 [0011]図2は、本開示の一例による、複合現実(MR)システムを含む整形外科手術システムのブロック図である。 [0012]図3は、外科的ライフサイクルの例となる段階を例示するフローチャートである。 [0013]図4は、本開示の一例による、複合現実(MR)システムで使用するための視覚化デバイスの概略図である。 [0014]図5は、本開示の一例による、複合現実(MR)システムで使用するための視覚化デバイスの例となる構成要素を例示するブロック図である。 [0015]図6は、外科的ライフサイクルの術前段階における例となるステップを例示するフローチャートである。 [0016]図7は、肩関節修復手術の例となる段階を例示するフローチャートである。 [0017]図8Aは、関節修復手術中、3次元仮想骨モデルを患者の観察された実際の骨構造と位置合わせするための例となる技法を例示する。 図8Bは、関節修復手術中、3次元仮想骨モデルを患者の観察された実際の骨構造と位置合わせするための例となる技法を例示する。 [0018]図9は、肩関節形成処置のための例となる位置合わせプロセスのステップを例示する概念図である。 [0019]図10は、図9の肩関節形成処置の例となる位置合わせプロセスの追加のステップを例示する概念図である。 [0020]図11は、肩関節形成処置のための例となる位置合わせプロセスを更に例示する概念図である。 図12は、肩関節形成処置のための例となる位置合わせプロセスを更に例示する概念図である。 [0021]図13は、仮想マーカを使用した例となる位置合わせ手順を例示する概念図である。 [0022]図14は、仮想マーカを使用した図13の例となる位置合わせ手順の追加のステップを例示する概念図である。 [0023]図15は、本開示の一例による、複合現実(MR)システムのオーグメント手術モード(augment surgery mode)にあるときにユーザが知覚可能な画像を例示する。 [0024]図16は、本開示の一例による、図1の複合現実(MR)システムで採用可能な追跡マーカの例を例示する。 [0025]図17は、本開示の一例による、複合現実(MR)システムのオーグメント手術モードにおいて追跡するためのプロセスフローの例である。 [0026]図18Aは、肩関節形成処置において外科医が上腕骨の上腕骨頭を切除するために実行し得るステップを例示する。 図18Bは、肩関節形成処置において外科医が上腕骨の上腕骨頭を切除するために実行し得るステップを例示する。 図18Cは、肩関節形成処置において外科医が上腕骨の上腕骨頭を切除するために実行し得るステップを例示する。 [0027]図19は、肩関節形成処置において上腕骨頭を切除するための機械的ガイドを例示する。 [0028]図20は、本開示の1つ又は複数の技法による、肩関節形成処置において上腕骨頭に機械的ガイドを設置するための仮想ガイダンスを提供するMRシステムを例示する概念図である。 図21は、本開示の1つ又は複数の技法による、肩関節形成処置において上腕骨頭に機械的ガイドを設置するための仮想ガイダンスを提供するMRシステムを例示する概念図である。 [0029]図22Aは、MRシステムが表示し得る仮想マーカの例を例示する。 図22Bは、MRシステムが表示し得る仮想マーカの例を例示する。 図22Cは、MRシステムが表示し得る仮想マーカの例を例示する。 図22Dは、MRシステムが表示し得る仮想マーカの例を例示する。 [0030]図23Aは、本開示の1つ又は複数の技法による、肩関節形成処置において上腕骨頭を切除するための仮想ガイダンスを提供するMRシステムを例示する概念図である。 図23Bは、本開示の1つ又は複数の技法による、肩関節形成処置において上腕骨頭を切除するための仮想ガイダンスを提供するMRシステムを例示する概念図である。 図23Cは、本開示の1つ又は複数の技法による、肩関節形成処置において上腕骨頭を切除するための仮想ガイダンスを提供するMRシステムを例示する概念図である。 [0031]図24は、本開示の1つ又は複数の技法による、肩関節形成処置において仮想ガイダンスを使用して位置決めされる上腕骨頭切除のための物理的ガイドを例示する概念図である。 [0032]図25は、本開示の1つ又は複数の技法による、肩関節形成処置において上腕骨にパイロットホールを作成するための仮想ガイダンスを提供するMRシステムを例示する概念図である。 図26は、本開示の1つ又は複数の技法による、肩関節形成処置において上腕骨にパイロットホールを作成するための仮想ガイダンスを提供するMRシステムを例示する概念図である。 [0033]図27は、本開示の1つ又は複数の技法による、肩関節形成処置において上腕骨をサウンディングするための仮想ガイダンスを提供するMRシステムを例示する概念図である。 [0034]図28は、本開示の1つ又は複数の技法による、肩関節形成処置において上腕骨を穿孔するための仮想ガイダンスを提供するMRシステムを例示する概念図である。 [0035]図29は、本開示の1つ又は複数の技法による、肩関節形成処置において上腕骨をコンパクティングする(compact)ための仮想ガイダンスを提供するMRシステムを例示する概念図である。 [0036]図30は、本開示の1つ又は複数の技法による、肩関節形成処置においてインプラントを上腕骨に取り付けるための仮想ガイダンスを提供するMRシステムを例示する概念図である。 [0037]図31は、本開示の1つ又は複数の技法による、インプラント又はインプラントツールと骨との間の空間的関係を監視するための例となるプロセスを例示するフローチャートである。 [0038]図32Aは、本開示の1つ又は複数の技法による、骨及びインプラントの例となる仮想モデルを例示する概念図である。 図32Bは、本開示の1つ又は複数の技法による、骨及びインプラントの例となる仮想モデルを例示する概念図である。 図32Cは、本開示の1つ又は複数の技法による、骨及びインプラントの例となる仮想モデルを例示する概念図である。 図32Dは、本開示の1つ又は複数の技法による、骨及びインプラントの例となる仮想モデルを例示する概念図である。 図32Eは、本開示の1つ又は複数の技法による、骨及びインプラントの例となる仮想モデルを例示する概念図である。 [0039]図33は、本開示の技法の別の例による、例となるインプラント部品位置決めデバイスを示す。 [0040]図34は、骨壁の外径とインプラント部品の外径との間の距離を測定するために使用されている図33のインプラント部品位置決めデバイスの例を示す。 [0041]図35は、本開示の技法による、例となるインプラント部品位置決めデバイスを示す。 [0042]図36は、骨壁の外径とインプラント部品の外径との間の距離を測定するために使用されている図35のインプラント部品位置決めデバイスの例を示す。 [0043]図37は、本開示の技法による、別の例となるインプラント部品位置決めデバイスを示す。 [0044]図38は、本開示の技法による、外科チームに提示され得る画像の例を示す。 [0045]図39は、本開示の技法による、システムによって実行され得るプロセスを例示するフロー図を示す。 [0046]図40は、本開示の1つ又は複数の技法による、MRシステムによって提供され得、二次ビューウィンドウを提供する例となるビューの概念図である。
[0047]いくつかの整形外科手術では、骨折などの骨損傷を回避するために、例えば、外科医によるインプラント部品の埋植中に、選択された骨表面に向かうそのような部品のエクスカーションを回避、低減、又は制限することが一般に望ましいであろう。一例として、上腕骨プロテーゼを固定するために、上腕骨インプラントのステムが上腕骨管内に配置され得る。ステムを上腕骨管内に配置する際、ステムが上腕骨の皮質骨の内壁に近づきすぎないようにして、骨折のリスクを低減することが一般に望ましい。追加的に、インプラントの遠位接触により応力遮蔽が生じる可能性があり、これは、時間の経過と共に骨損失を発生させ得る。外科手術中の骨の視認性が低い又はないこと、患者間の骨質の差、及び他の問題により、インプラント部品がいつ上腕骨管の皮質骨の内壁などの選択された骨表面に近づくかを予測することは困難であり得る。本開示の技法は、外科手術中にインプラント又はインプラントツール(一般にインプラント部品と呼ばれる)の少なくとも一部と骨表面との間の空間的関係を監視し、いくつかの例では、外科手術中に監視された空間的関係に基づいて外科医に情報を提供して、例えば、外科医が、骨に向かうインプラント部品の移動を制限し、それによって骨折のリスクを低減することを可能にするための例を含む。外科医に提供される情報は、外科医がインプラント部品を設置する際の指針となり得るか、又は異なるサイズ若しくは形状のインプラント部品が望ましいことを外科医に示し得る。
[0048]本開示で使用される場合、インプラント部品という用語は、埋込型プロテーゼ、埋込型プロテーゼの一部、又は埋込型プロテーゼの埋込みに関連する任意の他の部品若しくはツールを指し得る総称であることが意図される。インプラント部品の例には、例えば、上腕骨インプラントの上腕骨ステム、関節窩インプラント、アンカー、ねじ、及びコンパクティングツールが含まれる。
[0049]本開示は、インプラント又はインプラントツールと骨表面との間の空間的関係を監視するための複数の異なる技法を含む。これらの技法は、単独で使用され得るか、又は組み合わせて使用され得る。
[0050]本開示の第1の技法によれば、第1のセンサとインプラント部品との間の距離を表す第1の距離値を取得し、第2のセンサと骨の外壁との間の距離を表す第2の距離値を取得するために、少なくとも2つのセンサを有するシステムが使用され得る。第1の距離値から第2の距離値を差し引くことによって、システムは、インプラント部品と骨の外壁との間の距離を決定することができる。骨壁の決定又は推定された厚さに基づいて、システムは、追加的又は代替的に、インプラント部品と骨の内壁との間の距離を決定することができる。決定された距離の一方又は両方に基づいて、システムは、外科医が手術を行う際の指針となる1つ又は複数の出力を外科医に提示することができる。出力は、例えば、手術を受けている骨がインプラント部品によって骨折する危険にさらされていないことを示すインジケータとして機能し得るか、又は手術を受けている骨がインプラント部品によって今にも骨折する危険にさらされていることを示すインジケータとして機能し得る。インプラントの進行状況の表示に基づいて又は本開示の技法に従って生成されたアラート若しくは通知に基づいて、外科医は、例えば、骨折が起こる前に現在のインプラント部品の埋込みを停止し得る。場合によっては、そのようなアラート又は通知に基づいて、外科医は、より短い、より小さい円周若しくは直径を有する、異なる形状を有するより小さいインプラント部品などの異なるインプラント部品を埋め込むことを選択し得る。
[0051]本開示の第2の技法によれば、システムは、インプラント及び骨の両方の仮想モデルを、インプラント及び骨の対応する観察部分に位置合わせし得る。インプラントの仮想モデルは、少なくとも、インプラントの外面の表現(例えば、メッシュ又は点群)を含み得、骨の仮想モデルは、少なくとも、骨の1つ又は複数の壁(例えば、内壁及び/又は外壁)の表現を含み得る。システムは、仮想モデルの相対位置を監視し得る。仮想モデルが対応する観察された構造(例えば、外部から見える骨及び/又は骨に取り付けられたマーカ)に位置合わせされると、仮想モデルの相対位置は、対応する観察された構造の相対位置に対応し得る。換言すると、仮想モデルによって表されるインプラントの外面と骨の壁(複数可)との相対位置は、インプラントの実際の外面及び骨の実際の壁(複数可)に対応し得る。仮想モデルの相対位置に基づいて、システムは、インプラントと骨との間の距離(例えば、インプラントの外面と骨の内壁との間の距離、及び/又はインプラントの外面と骨の外壁との間の距離の一方又は両方)を決定し得る。第1の技法と同様に、システムは、決定された距離に基づいて外科医がインプラント埋植手術を行う際の指針となることができる1つ又は複数の出力を外科医に提示することができる。
[0052]外科チームは、インプラント部品のサイズ(例えば、円周及び長さ)並びにインプラント部品のインプラント深さを選択するために、CTスキャン又はMRIなどの術前撮像に依拠し得る。外科チームはまた、術後撮像を使用して、インプラントが適切に設置されたことを確認することができる。しかしながら、そのような撮像は、一般に、術中の意思決に使用することはできない。本開示の技法により、システムは、インプラント深さ及び皮質壁までの距離に関するより正確な情報を外科医に提供することができ、これにより、いつ骨折する危険があるかについてのより良い見解が外科医に提供され得るため、外科医は、骨折を回避するために異なるサイズ又は形状のインプラント部品を選択するといった措置を取ることができる。
[0053]以下でより詳細に説明されるように、本開示のシステムは、単一のデバイスを含み得るか、又はディスプレイデバイスにワイヤード又はワイヤレスで接続されているセンサデバイスなど、2つ以上の別個のデバイスを含み得る。システムは、追加的又は代替的に、インプラント部品及び骨の両方の仮想モデルをインプラント及び骨の対応する観察部分に位置合わせする、1つ又は複数の画像ベースのデバイスを含み得る。本開示の技法の多くは、例示の目的で、肩関節形成処置の一部としてヒトの腕の上腕骨管又は上腕骨の中に埋め込まれる上腕骨インプラントステムに関して説明される。反対に述べられない限り、説明される技法は、他の関節、他の骨、及び他の四肢に対して行われる手術にも適用可能であり得ることが想定されるべきである。従って、本開示で説明される技法は、肩関節形成処置に限定されると見なされるべきではなく、代わりに、他の処置において及び他の関節、骨、又は四肢に対して適用され得る。
[0054]整形外科手術は、患者の損傷又は罹患した関節を修復又は置換するために、1つ又は複数の補綴具を埋め込むことを伴い得る。今日では、罹患又は損傷した関節の画像データを使用して、外科医が術前に見たり操作したりすることができる正確な3次元骨モデルを生成する仮想手術計画ツールが利用可能である。これらのツールにより、外科医は、手術をシミュレートすること、患者の実際の骨の輪郭により厳密に一致するインプラントを選択又は設計すること、及び特定の患者の骨を修復するのに特に適している手術器具及びガイドツールを選択又は設計することができ、手術結果を向上させることができる。これらの計画ツールを使用することにより、典型的には、個々の患者のために選択又は製造されるインプラント及び手術器具を備えた術前手術計画が生成される。多くの場合、実際の手術環境に入ると、外科医は、手術中に患者の実際の骨に照らして術前手術計画を検証することを望み得る。
[0055]この検証の結果、異なるインプラント、インプラントの異なる位置決め若しくは向き、及び/又は手術計画を実行するための異なるサージカルガイドなど、術前手術計画に対して調整が必要であると決定され得る。加えて、外科医は、インプラント部品をより効率的かつ正確に位置決め及び方向付けするために、実際の処置中に、患者の実際の骨に照らして術前手術計画の詳細を見たい場合がある。例えば、外科医は、インプラント部品の位置決め及び方向付けのためのガイダンス、インプラント部品を受け入れるための骨若しくは組織の準備のためのガイダンス、処置若しくは処置ステップの詳細を検討するためのガイダンス、並びに/又はツール若しくはインプラントの選択及び外科手術ワークフローの追跡のためのガイダンスを提供する術中の視覚化を取得したいと望み得る。
[0056]従って、本開示は、複合現実(MR)視覚化システムを使用して、外科手術の前及びその間の手術計画の作成、実装、検証、及び/又は修正を支援するためのシステム及び方法を説明する。手術計画と対話するためにMR、又はいくつかの事例ではVRが使用され得るため、本開示では、手術計画を「仮想」手術計画とも呼び得る。複合現実視覚化システム以外の又はそれに加えて、視覚化ツールが、本開示の技法に従って使用され得る。例えば、Wright Medical Group,N.V.から入手可能なBLUEPRINT(登録商標)システム若しくは別の手術計画プラットフォームによって生成されるような手術計画は、例えば、骨若しくは組織準備ステップ並びに/又はインプラント部品の選択、修正、及び/若しくは埋植のためのステップを含む手術計画に従って外科医によって患者に対して実行される特定の外科手術ステップの特徴など、外科手術の様々な特徴を定義する情報を含み得る。そのような情報は、様々な例では、外科医によって選択又は修正されることとなるインプラント部品の寸法、形状、角度、表面輪郭、及び/又は向き、骨又は組織準備ステップにおいて外科医によって骨又は組織において画定されることとなる寸法、形状、角度、表面輪郭、及び/又は向き、並びに/あるいは外科医による、患者の骨又は組織に対するインプラント部品の埋植を画定する位置、軸、平面、角度、及び/又は侵入点を含み得る。患者の解剖学的特徴の寸法、形状、角度、表面輪郭、及び/又は向きなどの情報は、撮像(例えば、X線、CT、MRI、超音波、又は他の画像)、直接観察、又は他の技法から導出され得る。いくつかの例では、仮想
[0057]本開示では、「複合現実」(MR)という用語は、実際の物理的オブジェクトと仮想オブジェクトの両方を含む画像をユーザが見るような仮想オブジェクトの提示を指す。仮想オブジェクトは、共存するものとして提示される物理的な現実世界の環境において実際には存在しないテキスト、2次元表面、3次元モデル、又はユーザ知覚可能な他の要素を含み得る。加えて、本開示の様々な例において説明される仮想オブジェクトは、例えば、3D仮想オブジェクト又は2D仮想オブジェクトとして提示されるグラフィックス、画像、アニメーション、又はビデオを含み得る。仮想オブジェクトは、仮想要素とも呼ばれ得る。そのような要素は、現実世界のオブジェクトの類似体であってもなくてもよい。いくつかの例では、複合現実において、カメラは、現実世界の画像をキャプチャし、現実世界のコンテキストにおいて仮想オブジェクトを提示するように画像を修正し得る。そのような例では、修正された画像は、画面上に表示され得、画面は、頭部装着型、手持ち式、又は他の方法でユーザが見ることができるものであり得る。いくつかの例では、複合現実において、導波路と呼ばれ得るシースルー(例えば、透明な)ホログラフィックレンズは、ユーザが、ホログラフィックレンズを通して、現実世界のオブジェクト、すなわち、実際の解剖学的構造などの現実世界の環境における実際のオブジェクトを見ると同時に仮想オブジェクトも見ることを可能にし得る。
[0058]ワシントン州レドモンドのマイクロソフト社から入手可能なMicrosoft HOLOLENS(登録商標)ヘッドセットは、ユーザがレンズを通して現実世界のオブジェクトを見ると同時に、投影された3Dホログラフィックオブジェクトを見ることを可能にする、導波路と呼ばれることもあるシースルーホログラフィックレンズを含むMRデバイスの一例である。Microsoft HOLOLENS(登録商標)ヘッドセット又は同様の導波路ベースの視覚化デバイスは、本開示のいくつかの例に従って使用され得るMR視覚化デバイスの例である。いくつかのホログラフィックレンズは、ユーザが現実世界のオブジェクトと仮想のホログラフィックオブジェクトとを見ることができるように、シースルーホログラフィックレンズを通してある程度の透明性を有するホログラフィックオブジェクトを提示し得る。いくつかの例では、いくつかのホログラフィックレンズは、時々、ユーザに対して現実世界のオブジェクトを全く見えないようにし得、代わりに、ユーザが仮想環境だけを見ることを可能にし得る。複合現実という用語はまた、1人以上のユーザがホログラフィック投影によって生成された1つ又は複数の仮想オブジェクトを知覚することができるシナリオを包含し得る。換言すると、「複合現実」は、ホログラフィックプロジェクタが、ユーザの実際の物理的環境内に存在するようにユーザに表示される要素のホログラムを生成する場合を包含し得る。
[0059]いくつかの例では、複合現実において、いくつかの又は全ての提示された仮想オブジェクトの位置は、現実世界における物理的オブジェクトの位置と関係がある。例えば、ユーザがテーブルの方向を見ているときにはユーザが仮想オブジェクトを見ることができるが、テーブルがユーザの視野内にないときには仮想オブジェクトを見ないように、仮想オブジェクトが現実世界のテーブルにテザーされ得る。いくつかの例では、複合現実において、いくつかの又は全ての提示された仮想オブジェクトの位置は、現実世界における物理的オブジェクトの位置とは無関係である。例えば、仮想アイテムは、ユーザがどこを見ているかにかかわらず、常にユーザの視野の右上に表示され得る。
[0060]拡張現実(AR)は、現実世界の要素と仮想要素の両方を提示する点がMRと類似しているが、ARは一般に、大部分が現実で、現実世界の提示を「拡張する」ためにいくつかの仮想が追加されている提示を指す。本開示の目的のために、MRは、ARを含むものと見なされる。例えば、ARでは、ユーザの物理的環境の影になっている部分を、ユーザの物理的環境の他の領域を明るくすることなく、選択的に明るくすることができる。この例は、選択的に明るくされたエリアが、ユーザの物理的環境の影になっている部分に重ね合わされた仮想オブジェクトと見なされ得るという点で、MRの事例でもある。
[0061]更に、本開示では、「仮想現実」(VR)という用語は、ユーザがコンピュータによって提供される感覚刺激(視覚及び音など)を通して体験する没入型の人工環境を指す。従って、仮想現実では、ユーザは、現実世界に存在する物理的オブジェクトを見ることはない。仮想世界に設定されたビデオゲームは、VRの一般的な例である。「VR」という用語はまた、いくつかの仮想オブジェクトの位置が、ユーザに関連する対応する物理的オブジェクトの位置に基づく、完全人工環境がユーザに提示されるシナリオを包含する。ウォークスルーVRアトラクションは、このタイプのVRの例である。
[0062]「エスクテンデッドリアリティ」(XR)という用語は、仮想現実、複合現実、拡張現実、及びユーザの現実世界の環境には存在しない少なくともいくつかの知覚可能な要素をユーザの環境に存在するように提示することを伴う他のユーザ体験を含む、ユーザ体験のスペクトルを包含する用語である。従って、「エスクテンデッドリアリティ」という用語は、MR及びVRの属と見なされ得る。XR視覚化は、本開示の他の箇所で述べる複合現実を提示するための技法のいずれかで提示され得るか、又はVRゴーグルなどのVRを提示するための技法を使用して提示され得る。
[0063]これらの複合現実システム及び方法は、手術結果を向上させるために使用され得る複数のサブシステムを含むインテリジェント手術計画システムの一部であり得る。上述した術前及び術中アプリケーションに加えて、インテリジェント手術計画システムは、患者の回復を支援するための術後ツールを含むことができ、それは、将来の外科的再置換又は他の患者のための手術例を支援及び計画するために使用されることができる情報を提供することができる。
[0064]従って、計画するのを支援するための人工知能システム、医療提供者及び人工知能システムが使用する術後フィードバックを提供するための埋め込みセンサ付きのインプラント(例えば、スマートインプラント)、並びにリアルタイム又はほぼリアルタイムで患者及び医療提供者に情報を監視及び提供するためのモバイルアプリケーションなどのインテリジェント手術計画システムに組み込まれることができるシステム及び方法もまた本明細書で説明される。
[0065]患者画像データを利用して骨輪郭の3次元モデルを生成し、関節修復術及び置換術の術前計画を容易にする視覚化ツールが利用可能である。これらのツールは、外科医が、患者の解剖学的構造に厳密に一致するサージカルガイド及びインプラント部品を設計及び/又は選択することを可能にする。これらのツールは、患者ごとに手術計画をカスタマイズすることによって手術結果を改善することができる。肩関節修復術のためのそのような視覚化ツールの例は、Wright Medical Group,N.V.から入手可能なBLUEPRINT(登録商標)システムである。BLUEPRINT(登録商標)システムは、骨修復領域の2次元平面ビューだけでなく該修復領域の3次元仮想モデルも外科医に提供する。外科医は、BLUEPRINT(登録商標)システムを使用して、適切なインプラント部品を選択、設計、又は修正すること、インプラント部品を位置決め及び方向付けする最良の方法とこの部品を受け入れるように骨の表面を成形する方法とを決定すること、及び手術計画を実行するためのサージカルガイドツール(複数可)又は器具を設計、選択、又は修正することができる。BLUEPRINT(登録商標)システムによって生成された情報は、実際の手術の前及び最中を含めて、外科医又は他のケア提供者がアクセスすることができる適切な位置(例えば、ワイドエリアネットワーク、ローカルエリアネットワーク、又はグローバルネットワーク内のサーバ上)のデータベースに記憶された患者のための術前手術計画にコンパイルされる。
[0066]図1は、本開示の一例による整形外科手術システム100のブロック図である。整形外科手術システム100は、サブシステムのセットを含む。図1の例では、サブシステムは、仮想計画システム102と、計画支援システム104と、製造及び送達システム106と、術中ガイダンスシステム108と、医療教育システム110と、モニタリングシステム112と、予測分析システム114と、通信ネットワーク116とを含む。他の例では、整形外科手術システム100は、より多い、より少ない、又は異なるサブシステムを含み得る。例えば、整形外科手術システム100は、医療教育システム110、モニタリングシステム112、予測分析システム114、及び/又は他のサブシステムを省略し得る。いくつかの例では、整形外科手術システム100は、手術追跡に使用され得、その場合、整形外科手術システム100は、手術追跡システムと呼ばれ得る。他の場合には、整形外科手術システム100は、一般に、医療機器システムと呼ばれ得る。
[0067]整形外科手術システム100のユーザは、整形外科手術を計画するために、仮想計画システム102を使用し得る。整形外科手術システム100のユーザは、計画支援システム104を使用して、整形外科手術システム100を使用して生成された手術計画を検討し得る。製造及び送達システム106は、整形外科手術を行うために必要とされるアイテムの製造及び送達を支援し得る。術中ガイダンスシステム108は、整形外科手術を行う際に整形外科手術システム100のユーザを支援するためのガイダンスを提供する。医療教育システム110は、医療専門家、患者、及び他のタイプの個人のようなユーザの教育を支援し得る。術前及び術後モニタリングシステム112は、患者が手術を受ける前及び手術を受けた後に患者を監視することを支援し得る。予測分析システム114は、様々なタイプの予測で医療専門家を支援し得る。例えば、予測分析システム114は、人工知能技法を適用して、整形外科関節の状態の分類の決定、例えば診断、患者に対してどのタイプの手術を行うか及び/又は手術でどのタイプのインプラントを使用するかの決定、手術中に必要とされ得るアイテムのタイプの決定などを行い得る。
[0068]整形外科手術システム100のサブシステム(すなわち、仮想計画システム102、計画支援システム104、製造及び送達システム106、術中ガイダンスシステム108、医療教育システム110、術前及び術後モニタリングシステム112、並びに予測分析システム114)は、様々なシステムを含み得る。整形外科手術システム100のサブシステム内のシステムは、様々なタイプのコンピューティングシステム、サーバコンピュータ、パーソナルコンピュータ、タブレットコンピュータを含むコンピューティングデバイス、スマートフォン、ディスプレイデバイス、モノのインターネット(IoT)デバイス、視覚化デバイス(例えば、MR視覚化デバイス、VR視覚化デバイス、ホログラフィックプロジェクタ、又はXR視覚化を提示するための他のデバイス)、手術用具などを含み得る。ホログラフィックプロジェクタは、いくつかの例では、ヘッドセットを装着しているユーザだけが見るのではなく、ヘッドセットなしで複数のユーザ又は単一のユーザが全体的に見るためのホログラムを投影し得る。例えば、仮想計画システム102は、MR視覚化デバイス及び1つ又は複数のサーバデバイスを含み得、計画支援システム104は、1つ又は複数のパーソナルコンピュータ及び1つ又は複数のサーバデバイスなどを含み得、他も同様である。コンピューティングシステムは、システムとして動作するように構成された1つ又は複数のコンピューティングシステムのセットである。いくつかの例では、1つ又は複数のデバイスが、整形外科手術システム100のサブシステムのうちの2つ以上の間で共有され得る。例えば、前述の例では、仮想計画システム102及び計画支援システム104は、同じサーバデバイスを含み得る。
[0069]図1の例では、整形外科手術システム100のサブシステム内に含まれるデバイスは、通信ネットワーク116を使用して通信し得る。通信ネットワーク116は、インターネット、ローカルエリアネットワークなどの1つ又は複数のワイドエリアネットワークを含む様々なタイプの通信ネットワークを含み得る。いくつかの例では、通信ネットワーク116は、ワイヤード及び/又はワイヤレス通信リンクを含み得る。
[0070]整形外科手術システム100の多くの変形例が、本開示の技法に従って可能である。そのような変形例は、図1に示される整形外科手術システム100のバージョンよりも多い又は少ないサブシステムを含み得る。例えば、図2は、本開示の一例による、1つ又は複数のMRシステムを含む、整形外科手術システム200のブロック図である。整形外科手術システム200は、手術計画を作成、検証、更新、修正、及び/又は実装するために使用され得る。いくつかの例では、手術計画は、例えば、仮想手術計画システム(例えば、BLUEPRINT(登録商標)システム)を使用することで手術前に作成され、次いで、例えば、手術計画のMR視覚化を使用して、手術中に検証、修正、更新、及び閲覧され得る。他の例では、整形外科手術システム200は、必要に応じて、手術の直前に又は術中に手術計画を作成するために使用され得る。いくつかの例では、整形外科手術システム200は、手術追跡に使用され得、その場合、整形外科手術システム200は、手術追跡システムと呼ばれ得る。他の場合には、整形外科手術システム200は、一般に、医療機器システムと呼ばれ得る。
[0071]図2の例では、整形外科手術システム200は、術前手術計画システム202と、医療施設204(例えば、外科センター又は病院)と、記憶システム206と、ネットワーク208とを含み、ネットワーク208は、医療施設204のユーザが、(例として)病歴、損傷した関節又は骨に対応する画像データ、及び術前に記憶された患者情報にアクセスすることを可作成された手術計画に対応する様々なパラメータのような記能にする。術前手術計画システム202は、図1の仮想計画システム102に相当し得、いくつかの例では、一般に、BLUEPRINT(登録標)システムに類似した又はそれと同一の仮想計画システムに対応し得る。
[0072]図2の例では、医療施設204は、MRシステム212を含む。本開示のいくつかの例では、MRシステム212は、以下でより詳細に説明される機能性を提供するための1つ又は複数の処理デバイス(複数可)(P)210を含む。処理デバイス(複数可)210は、プロセッサ(複数可)とも呼ばれ得る。加えて、MRシステム212の1人以上のユーザ(例えば、外科医、看護師、又は他のケア提供者)は、処理デバイス(複数可)(P)210を使用して、ネットワーク208を介して記憶システム206に送信される特定の手術計画又は他の患者情報に対する要求を生成することができる。これに応答して、記憶システム206は、要求された患者情報をMRシステム212に返す。いくつかの例では、ユーザは、MRシステム212の一部であるが任意の視覚化デバイスの一部ではない1つ又は複数の処理デバイス、又はMRシステム212の視覚化デバイス(例えば、視覚化デバイス213)の一部である1つ又は複数の処理デバイス、又はMRシステム212の一部であるが任意の視覚化デバイスの一部ではない1つ又は複数の処理デバイスと、MRシステム212の一部である視覚化デバイス(例えば、視覚化デバイス213)の一部である1つ又は複数の処理デバイスとの組合せのような、他の処理デバイス(複数可)を使用して、情報を要求して受信することができる。
[0073]いくつかの例では、複数のユーザがMRシステム212を同時に使用することができる。例えば、MRシステム212は、複数のユーザが各々自分の視覚化デバイスを使用することでユーザが同時に同じ視点から同じ情報を見ることができるスペクテータモードで使用され得る。いくつかの例では、MRシステム212は、複数のユーザが各々自分の視覚化デバイスを使用することでユーザが異なる視点から同じ情報を見ることができるモードで使用され得る。
[0074]いくつかの例では、処理デバイス(複数可)210は、データを表示し、医療施設204でユーザから入力を受け取るためのユーザインターフェースを提供することができる。処理デバイス(複数可)210は、ユーザインターフェースを提示するように視覚化デバイス213を制御するように構成され得る。更に、処理デバイス(複数可)210は、3D仮想モデル、2D画像などの仮想画像を提示するように視覚化デバイス213を制御するように構成され得る。処理デバイス(複数可)210は、サーバ、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、携帯電話、及び他の電子コンピューティングデバイス、又はそのようなデバイス内のプロセッサのような、様々な異なる処理デバイス又はコンピューティングデバイスを含むことができる。いくつかの例では、処理デバイス(複数可)210のうちの1つ又は複数は、医療施設204から離れて位置し得る。いくつかの例では、処理デバイス(複数可)210は、視覚化デバイス213内に存在する。いくつかの例では、処理デバイス(複数可)210のうちの少なくとも1つは、視覚化デバイス213の外部にある。いくつかの例では、1つ又は複数の処理デバイス(複数可)210は、視覚化デバイス213内に存在し、処理デバイス(複数可)210のうちの1つ又は複数は、視覚化デバイス213の外部にある。
[0075]図2の例では、MRシステム212はまた、処理デバイス(複数可)210によって実行可能なソフトウェアの命令及びデータを記憶するための1つ又は複数のメモリ又は記憶デバイス(複数可)(M)215を含む。ソフトウェアの命令は、本明細書で説明されるMRシステム212の機能性に対応することができる。いくつかの例では、BLUEPRINT(登録商標)システムのような仮想手術計画アプリケーションの機能性はまた、メモリ又は記憶デバイス(複数可)(M)215と共に処理デバイス(複数可)210によって記憶及び実行され得る。例えば、メモリ又は記憶システム215は、仮想手術計画の少なくとも一部に対応するデータを記憶するように構成され得る。いくつかの例では、記憶システム206が、仮想手術計画の少なくとも一部に対応するデータを記憶するように構成され得る。いくつかの例では、メモリ又は記憶デバイス(複数可)(M)215は、視覚化デバイス213内に存在する。いくつかの例では、メモリ又は記憶デバイス(複数可)(M)215は、視覚化デバイス213の外部にある。いくつかの例では、メモリ又は記憶デバイス(複数可)(M)215は、視覚化デバイス213内の1つ又は複数のメモリ又は記憶デバイスと、視覚化デバイスの外部の1つ又は複数のメモリ又は記憶デバイスとの組合せを含む。
[0076]ネットワーク208は、ネットワーク116に相当し得る。ネットワーク208は、術前手術計画システム202及びMRシステム212を記憶システム206に接続する1つ又は複数のワイドエリアネットワーク、ローカルエリアネットワーク、及び/又はグローバルネットワーク(例えば、インターネット)を含むことができる。記憶システム206は、患者情報、医療情報、患者の画像データ、及び手術計画を定義するパラメータを含むことができる1つ又は複数のデータベースを含むことができる。例えば、患者の罹患又は損傷した骨の医用画像は、典型的に、整形外科手術に備えて術前に生成される。医用画像は、患者の身体の矢状面及び冠状面に沿って撮影された関連する骨(複数可)の画像を含むことができる。医用画像は、X線画像、磁気共鳴撮像(MRI)画像、コンピュータ断層撮影(CT)画像、超音波画像、及び/又は関連する手術領域に関する情報を提供する任意の他のタイプの2D又は3D画像を含むことができる。記憶システム206はまた、特定の患者のために選択されたインプラント部品(例えば、タイプ、サイズなど)、特定の患者のために選択されたサージカルガイド、並びに侵入点、切断面、穿孔軸、リーミング深度などの外科手術の詳細を識別するデータを含むことができる。記憶システム206は、例として、(図示されるように)クラウドベースの記憶システムであり得るか、又は医療施設204に若しくは術前手術計画システム202の位置にあり得るか、又はMRシステム212若しくは視覚化デバイス(VD)213の一部であり得る。
[0077]MRシステム212は、手術計画を作成、検討、検証、更新、修正、及び/又は実施するために、外科手術の前(例えば、術前)又は外科手術の最中(例えば、手術中)に外科医によって使用され得る。いくつかの例では、MRシステム212はまた、外科手術の結果を検討し、再置換が必要であるかどうかを評価し、又は他の術後タスクを実行するために、外科手術の後(例えば、術後)に使用され得る。そのため、MRシステム212は、外科医によって装着され得る視覚化デバイス213を含み得、(以下でより詳細に説明されるように)視覚化デバイス213は、手術計画の詳細、患者の罹患した、損傷した、又は手術後の関節の3D仮想画像、例えば、手術計画のために選択された人工インプラント部品の3D仮想画像と、人工部品、サージカルガイド及び手術器具、並びに損傷した関節へのそれらの配置を適切に方向付け及び位置決めするために、外科手術において、人工部品を位置決めするための侵入点、骨表面を成形する切断ツール又はリーミングツール又は骨表面に1つ又は複数の穴を画定する穿孔ツールをアラインするためのアライメント軸及び切断面の3D仮想画像と、手術計画を実施するのに外科医にとって有用であり得る任意の他の情報とを含む様々なタイプの情報を表示するように動作可能である。MRシステム212は、外科手術の前及び/又は最中に視覚化デバイス213のユーザが知覚可能な、この情報の画像を生成することができる。
[0078]いくつかの例では、MRシステム212は、複数のユーザが同じ画像を同時に見すること及び同じ3Dシーンを共有することができるように、複数の視覚化デバイス(例えば、視覚化デバイス213の複数のインスタンス)を含む。いくつかのそのような例では、視覚化デバイスのうちの1つがマスタデバイスに指定され得、その他の視覚化デバイスがオブザーバ又はスペクテータに指定され得る。任意のオブザーバデバイスは、MRシステム212のユーザが望み得る通りに、いつでもマスタデバイスに再指定され得る。
[0079]このようにして、図2は、特定の患者の対象の解剖学的構造を修復するようにカスタマイズされた仮想手術計画を生成するための術前手術計画システム202を含む手術計画システムを例示する。例えば、仮想手術計画は、標準肩関節全形成術又はリバース型肩関節形成術のうちの1つのような整形外科的関節修復外科手術のための計画を含み得る。この例では、仮想手術計画の詳細は、関節窩骨の準備又は上腕骨の準備のうちの少なくとも1つに関する詳細を含み得る。いくつかの例では、整形外科的関節修復外科手術は、ステムレス標準肩関節全形成術、ステム付き標準肩関節全形成術、ステムレスリバース型肩関節形成術、ステム付きリバース型肩関節形成術、拡張関節窩標準肩関節全形成術、及び拡張関節窩リバース型肩関節形成術のうちの1つである。
[0080]仮想手術計画は、特定の患者の対象の解剖学的構造に対応する3D仮想モデル、1つ又は複数のツールの3Dモデル、及び/又は対象の解剖学的構造を修復するために特定の患者に適合しているか、又は対象の解剖学的構造を修復するために選択された人工部品の3Dモデルを含み得る。いくつかの例では、3Dモデルは、対応するオブジェクトの特徴を表す点群又はメッシュ(例えば、多角形メッシュ、ワイヤフレームなど)を含み得る。一例として、患者の骨の3Dモデルは、骨の壁を表す点群又はメッシュを含み得る。別の例として、患者の骨の3Dモデルは、骨の内壁を表す第1の点群又はメッシュと、骨の外壁を表す第2の点群又はメッシュとを含み得る。別の例として、人工部品(例えば、インプラント)の3Dモデルは、人工部品の少なくとも一部分(例えば、骨に挿入される部分)の外面を表す点群又はメッシュを含み得る。別の例として、インプラントツールの3Dモデルは、インプラントツールの少なくとも一部分(例えば、骨に挿入される部分)の外面を表す点群又はメッシュを含み得る。
[0081]更に、図2の例では、手術計画システムは、仮想手術計画に対応するデータを記憶するための記憶システム206を含む。図2の手術計画システムはまた、視覚化デバイス213を備え得るMRシステム212を含む。いくつかの例では、視覚化デバイス213は、ユーザによって装着可能である。いくつかの例では、視覚化デバイス213は、ユーザによって保持されるか、又はユーザがアクセス可能な場所の表面上にある。MRシステム212は、視覚化デバイス213を介してユーザインターフェースを提示するように構成され得る。ユーザインターフェースは、視覚化デバイス213を使用してユーザが視覚的に知覚可能である。例えば、一例では、視覚化デバイス213の画面は、現実世界の画像及びユーザインターフェースを画面上に表示し得る。いくつかの例では、視覚化デバイス213は、仮想ホログラフィック画像をシースルーホログラフィックレンズ上に投影するだけでなく、ユーザがレンズを通して現実世界の環境の現実世界のオブジェクトを見ることも可能にし得る。換言すると、視覚化デバイス213は、1つ又は複数のシースルーホログラフィックレンズと、ユーザインターフェースをユーザに提示するためにホログラフィックレンズを介してユーザに画像を提示する1つ又は複数のディスプレイデバイスとを備え得る。
[0082]いくつかの例では、視覚化デバイス213は、(ユーザが視覚化デバイス213を着用しているか又はそれを他の方法で使用しているときにユーザが視覚的に知覚可能である)ユーザインターフェースをユーザが操作して、対象の解剖学的構造の3D仮想モデル(例えば、対象の解剖学的構造の3D仮想骨)及び対象の解剖学的構造を修復するために選択された人工部品の3Dモデルを含む、特定の患者のための仮想手術計画の詳細を要求すること及び見ることができるように構成されている。いくつかのそのような例では、視覚化デバイス213は、ユーザがユーザインターフェースを操作することで、ユーザが(少なくともいくつかの例では)対象の解剖学的構造の3D仮想モデル(例えば、対象の解剖学的構造の3D仮想骨)を含む仮想手術計画を手術中に見ることができるように構成されている。いくつかの例では、MRシステム212は、ユーザが手術中にユーザインターフェースを操作することで、ユーザが、実環境に、例えば、特定の患者の対象の実際の解剖学的構造上に投影された仮想手術計画の詳細を視覚的に知覚することができるオーグメント手術モードで動作し得る。本開示では、実際の/実物の(real)及び現実世界(real world)という用語が同様に使用され得る。例えば、MRシステム212は、骨表面の準備及び骨表面上への人工インプラントの埋植のためのガイダンスを提供する1つ又は複数の仮想オブジェクトを提示し得る。視覚化デバイス213は、例えば、ホログラフィックレンズを通してユーザが見る実際の現実世界の患者の解剖学的構造と共に仮想オブジェクト(複数可)を表示することによって、仮想オブジェクトが現実世界の環境内で患者の実際の実物の解剖学的オブジェクト上に重ねて表示される方法で、1つ又は複数の仮想オブジェクトを提示し得る。例えば、仮想オブジェクトは、実際の現実の解剖学的オブジェクトと共に現実世界の環境内に存在するように表示される3D仮想オブジェクトであり得る。
[0083]図3は、外科的ライフサイクル300の例となる段階を例示するフローチャートである。図3の例では、外科的ライフサイクル300は、術前段階(302)から始まる。術前段階中に、手術計画が作成される。術前段階の後に製造及び送達段階(304)が続く。製造及び送達段階中に、手術計画を実行するために必要なパーツ及び機器などの患者固有のアイテムが製造され、手術部位に送達される。いくつかの例では、手術計画を実行するために患者固有のアイテムを製造する必要はない。術中段階が、製造及び送達段階(304)に続く。手術計画は、術中段階中に実行される。換言すると、術中段階中に1人以上の人が患者に手術を行う。術中段階の後に術後段階(308)が続く。術後段階は、手術計画が完了した後に行われる活動を含む。例えば、患者は、術後段階中、合併症について監視され得る。
[0084]本開示で説明されるように、整形外科手術システム100(図1)は、術前段階302、製造及び送達段階304、術中段階306、並びに術後段階308のうちの1つ又は複数で使用され得る。例えば、仮想計画システム102及び計画支援システム104は、術前段階302で使用され得る。製造及び送達システム106は、製造及び送達段階304で使用され得る。術中ガイダンスシステム108は、術中段階306で使用され得る。図1のシステムのうちのいくつかは、図3の複数の段階で使用され得る。例えば、医療教育システム110は、術前段階302、術中段階306、及び術後段階308のうちの1つ又は複数で使用され得、術前及び術後モニタリングシステム112は、術前段階302及び術後段階308で使用され得る。予測分析システム114は、術前段階302及び術後段階308で使用され得る。
[0085]先に述べたように整形外科手術システム100のサブシステムのうちの1つ又は複数は、MRシステム212(図2)などの1つ又は複数のMRシステムを含み得る。各MRシステムは、視覚化デバイスを含み得る。例えば、図2の例では、MRシステム212は、視覚化デバイス213を含む。いくつかの例では、視覚化デバイスを含むことに加えて、MRシステムは、視覚化デバイスの動作をサポートする外部コンピューティングリソースを含み得る。例えば、MRシステムの視覚化デバイスは、外部コンピューティングリソースを提供するコンピューティングデバイス(例えば、パーソナルコンピュータ、バックパックコンピュータ、スマートフォンなど)に通信可能に結合され得る。代替的に、視覚化デバイスの必要な機能を実行するために、適切なコンピューティングリソースが視覚化デバイス213上又は視覚化デバイス213内に提供され得る。
[0086]図4は、本開示の一例による、図2のMRシステム212のようなMRシステムで使用するための視覚化デバイス213の概略図である。図4の例に示されるように、視覚化デバイス213は、1つ又は複数のプロセッサ(複数可)414(例えば、マイクロプロセッサ又は他のタイプの処理ユニット)と、フレーム418上又はフレーム418内に取り付けられ得るメモリ416とを含む、コンピューティングシステム内に見られる様々な電子部品を含むことができる。更に、図4の例では、視覚化デバイス213は、ユーザが視覚化デバイス213を装着すると目の高さになる透明な画面420を含み得る。いくつかの例では、画面420は、1つ又は複数の液晶ディスプレイ(LCD)又は他のタイプのディスプレイ画面を含むことができ、それ上の画像は、視覚化デバイス213を装着している又は他の方法で使用している外科医が画面420を介して知覚可能なものである。他のディスプレイ例には、有機発光ダイオード(OLED)ディスプレイが含まれる。いくつかの例では、視覚化デバイス213は、当技術分野で知られている技法を使用してユーザの網膜上に3D画像を投影するように動作することができる。
[0087]いくつかの例では、画面420は、導波路と呼ばれることもあるシースルーホログラフィックレンズを含み得、シースルーホログラフィックレンズは、ユーザがレンズを通して(例えば、レンズ越しに)現実世界のオブジェクトを見ると同時に、視覚化デバイス213内のホログラフィック投影システム438の一例として動作し、光エンジン又はプロジェクタと呼ばれることもあるLCoS(liquid crystal on silicon)ディスプレイデバイスなどのディスプレイによって、レンズに及びユーザの網膜上に投影されたホログラフィック画像を見ることを可能にする。換言すると、視覚化デバイス213は、仮想画像をユーザに提示するために1つ又は複数のシースルーホログラフィックレンズを含み得る。従って、いくつかの例では、視覚化デバイス213は、例えばホログラフィックレンズによって形成された画面420を介してユーザの網膜上に3D画像を投影するように動作することができる。このようにして、視覚化デバイス213は、例えば、仮想画像が現実世界の環境の一部を形成しているように表示されるように、画面420を通して観察された現実世界のビュー内で3D仮想画像をユーザに提示するように構成され得る。いくつかの例では、視覚化デバイス213は、マイクロソフト社(米国ワシントン州レドモンド)から入手可能なMicrosoft HOLOLENS(登録商標)ヘッドセット、又は例えば導波路を含む同様のMR視覚化デバイスなどの同様のデバイスであり得る。HOLOLENS(登録商標)デバイスは、ユーザが、ホログラフィックレンズを通して、現実世界のシーン、すなわち現実世界の環境における実際のオブジェクトを見ることを可能にしつつ、ホログラフィックレンズ、すなわち導波路を介して3D仮想オブジェクトを提示するために使用され得る。
[0088]図4の例は視覚化デバイス213を頭部装着可能なデバイスとして示しているが、視覚化デバイス213は、他の形態及び形状因子を有し得る。例えば、いくつかの例では、視覚化デバイス213は、ハンドヘルドスマートフォン又はタブレットであり得る。
[0089]視覚化デバイス213はまた、例えば、上で説明したようにシースルーホログラフィックレンズ内に投影されたホログラフィック画像としてユーザに見えるユーザインターフェース(UI)422を生成することができる。例えば、UI422は、ユーザが図2のMRシステム212などのMRシステムと対話することを可能にする様々な選択可能なウィジェット424を含むことができる。視覚化デバイス213によって提示される画像は、例えば、1つ又は複数の3D仮想オブジェクトを含み得る。UI422の例の詳細については、本開示の他の箇所で説明する。視覚化デバイス213はまた、ユーザの耳に隣接して位置決めされ得るスピーカ又は他の知覚デバイス426を含むことができる。知覚デバイス426は、視覚化デバイス213のユーザを支援するために、可聴情報又は他の知覚可能な情報(例えば、振動)を伝達することができる。
[0090]視覚化デバイス213はまた、例えばワイヤード通信プロトコル又はワイヤレスプロトコル、例えばWi-Fi、Bluetooth(登録商標)などを介して、視覚化デバイス213を処理デバイス410及び/又はネットワーク208及び/又はコンピューティングクラウドに接続するためのトランシーバ428を含むことができる。視覚化デバイス213はまた、フレーム418に、フレーム418上に、又はフレーム418内に取り付けられた1つ又は複数の光学カメラ(複数可)430(又は他の光学センサ)及び1つ又は複数の深度カメラ(複数可)432(又は他の深度センサ)など、センサデータを収集するための様々なセンサを含む。いくつかの例では、光学センサ(複数可)430は、MRシステム212のユーザが位置している物理的環境(例えば、手術室)のジオメトリをスキャンし、2次元(2D)光学画像データ(モノクロ又はカラーのいずれか)を収集するように動作可能である。深度センサ(複数可)432は、例えば、飛行時間、ステレオ、又は深さを決定するための他の既知の若しくは将来開発される技法を採用し、それによって3次元で画像データを生成することによって、3D画像データを提供するように動作可能である。他のセンサは、動きの追跡を支援するためにモーションセンサ433(例えば、慣性マスユニット(IMU)センサ、加速度計など)を含むことができる。
[0091]MRシステム212は、ユーザの環境又は「シーン」における幾何学的、環境的、組織的なランドマーク(例えば、角、縁、又は他の線、壁、床、オブジェクト)などが定義され、そのシーン内の動きが検出され得るように、センサデータを処理する。一例として、視覚化デバイス213のユーザが、シーン内で位置決めされ、又は固定され、及び/若しくは移動され得る3D画像を知覚することができるように、様々なタイプのセンサデータを組み合わせるか又は融合することができる。シーン内に固定されると、ユーザは、3D画像の周りを歩き、異なる視点から3D画像を見て、手のジェスチャ、音声コマンド、注視線(又は方向)、及び/又は他の制御入力を使用してシーン内の3D画像を操作することができる。別の例として、ユーザが、3D仮想オブジェクト(例えば、骨モデル)をシーン内の観察された物理的オブジェクト(例えば、表面、患者の実際の骨など)上に位置決めすること、及び/又は3D仮想オブジェクトをシーン内に表示される他の仮想画像に方向付けることができるように、センサデータを処理することができる。更に別の例として、ユーザが、手術室の壁などの表面上に手術計画(又は他のウィジェット、画像、若しくは情報)の仮想表現を位置決め及び固定することができるように、センサデータを処理することができる。また更に、手術器具並びにそれらの器具の位置及び/又は場所を認識するためにセンサデータを使用することができる。
[0092]視覚化デバイス213は、例えば、視覚化デバイスのフレーム418内に、1つ又は複数のプロセッサ414及びメモリ416を含み得る。いくつかの例では、1つ又は複数の外部コンピューティングリソース436は、フレーム内プロセッサ(複数可)414及びメモリ416の代わりに又はそれに加えて、センサデータなどの情報を処理して記憶する。このようにして、データ処理及び記憶は、視覚化デバイス213内の1つ又は複数のプロセッサ414及びメモリ416によって実行され得、並びに/又は、処理及び記憶要件の一部は、視覚化デバイス213からオフロードされ得る
従って、いくつかの例では、視覚化デバイス213の動作を制御する1つ又は複数のプロセッサは、例えばプロセッサ(複数可)414として視覚化デバイス内にあり得る。代替的に、いくつかの例では、視覚化デバイス213の動作を制御するプロセッサのうちの少なくとも1つは、例えばプロセッサ(複数可)210として視覚化デバイスの外部にあり得る。同様に、視覚化デバイス213の動作は、いくつかの例では、視覚化デバイス内の1つ又は複数のプロセッサ414と視覚化デバイスの外部の1つ又は複数のプロセッサ210との組合せによって部分的に制御され得る。
[0093]例えば、いくつかの例では、視覚化デバイス213が図2のコンテキストにあるとき、センサデータの処理は、メモリ又は記憶デバイス(複数可)(M)215と共に処理デバイス(複数可)210によって実行され得る。いくつかの例では、フレーム418に取り付けられたプロセッサ(複数可)414及びメモリ416は、カメラ430、432及びモーションセンサ433によって収集されたセンサデータを処理するのに十分なコンピューティングリソースを提供し得る。いくつかの例では、センサデータは、SLAM(Simultaneous Localization and Mapping)アルゴリズム、又は2D及び3D画像データを処理してマッピングし、3Dシーンにおける視覚化デバイス213の位置を追跡するための他の既知の又は将来開発されるアルゴリズムを使用して処理され得る。いくつかの例では、画像追跡は、Microsoft HOLOLENS(登録商標)システムによって提供されるセンサの処理及び追跡機能性を使用して、例えば、Microsoft HOLOLENS(登録商標)デバイス又は同様のMR視覚化デバイスに実質的に準拠する視覚化デバイス213内の1つ又は複数のセンサ及びプロセッサ414によって実行され得る。
[0094]いくつかの例では、MRシステム212はまた、ユーザがMRシステム212を操作し、(マスタ又はオブザーバのいずれかとして)MRシステム212をスペクテータモードで使用し、UI422と対話し、及び/又は他の方法でコマンド若しくは要求を処理デバイス(複数可)210若しくはネットワーク208に接続された他のシステムに提供することを可能にするユーザ操作制御デバイス(複数可)434を含むことができる。例として、制御デバイス(複数可)234は、マイクロフォン、タッチパッド、制御パネル、モーションセンサ、又はユーザが対話することができる他のタイプの制御入力デバイスを含むことができる。
[0095]図5は、MRシステムで使用するための視覚化デバイス213の例となる構成要素を例示するブロック図である。図5の例では、視覚化デバイス213は、プロセッサ514と、電源540と、ディスプレイデバイス(複数可)542と、スピーカ544と、マイクロフォン(複数可)546と、入力デバイス(複数可)548と、出力デバイス(複数可)550と、記憶デバイス(複数可)552と、センサ(複数可)554と、通信デバイス556とを含む。図5の例では、センサ(複数可)554は、深度センサ(複数可)532と、光学センサ(複数可)530と、モーションセンサ(複数可)533と、方位センサ(複数可)558とを含み得る。光学センサ(複数可)530は、RGB(Red-Green-Blue)ビデオカメラ、赤外線カメラ、又は光から画像を形成する他のタイプのセンサなどのカメラを含み得る。ディスプレイデバイス(複数可)542は、ユーザにユーザインターフェースを提示するために画像を表示し得る。
[0096]スピーカ544は、いくつかの例では、図4に示される知覚デバイス526の一部を形成し得る。いくつかの例では、ディスプレイデバイス542は、図4に示される画面520を含み得る。例えば、図4を参照して述べたように、ディスプレイデバイス(複数可)542は、プロジェクタと組み合わせて、シースルーホログラフィックレンズを含み得、これは、ユーザが、レンズを通して、現実世界の環境における現実世界のオブジェクトを見ることと、例えば、ホログラフィック投影システムによって、レンズに及びユーザの網膜上に投影された仮想3Dホログラフィック画像を見ることとを可能にする。この例では、仮想3Dホログラフィックオブジェクトは、現実世界の環境内に配置されているように表示され得る。いくつかの例では、ディスプレイデバイス542は、LCD表示画面、OLED表示画面などの1つ又は複数の表示画面を含む。ユーザインターフェースは、特定の患者のための仮想手術計画の詳細の仮想画像を提示し得る。
[0097]いくつかの例では、ユーザは、様々な方法で視覚化デバイス213と対話したり、それを制御したりし得る。例えば、マイクロフォン546及び関連する音声認識処理回路又はソフトウェアは、ユーザが発した音声コマンドを認識し、それに応答して、手術計画、術中ガイダンスなどに関連する様々な機能の選択、アクティブ化、又は非アクティブ化のような様々な動作のいずれかを実行し得る。別の例として、センサ554の1つ又は複数のカメラ又は他の光学センサ530は、上で説明したような動作を実行するためにジェスチャを検出及び解釈し得る。更なる例として、センサ554は、注視方向を感知し、本開示の他の箇所で説明したような様々な動作を実行し得る。いくつかの例では、入力デバイス548は、例えば、1つ又は複数のボタン、キーパッド、タッチスクリーン、ジョイスティック、トラックボール、及び/又は他の手動入力媒体を含むハンドヘルドコントローラを介して、ユーザから手動入力を受け取り、手動ユーザ入力に応答して、上で説明したような様々な動作を実行し得る。
[0098]上述したように、外科的ライフサイクル300は、術前段階302(図3)を含み得る。1人以上のユーザは、術前段階302において整形外科手術システム100を使用し得る。例えば、整形外科手術システム100は、1人以上のユーザが、特定の患者の対象の解剖学的構造に合わせてカスタマイズされ得る仮想手術計画を生成するのを助けるために、仮想計画システム102を含み得る。本明細書で説明されるように、仮想手術計画は、特定の患者の対象の解剖学的構造に対応する3次元仮想モデルと、対象の解剖学的構造を修復するために特定の患者に適合しているか、又は対象の解剖学的構造を修復するために選択された1つ又は複数の人工部品の3次元モデルとを含み得る。仮想手術計画はまた、外科医が外科手術を行う際、例えば、骨表面又は組織を準備し、そのような骨表面又は組織に対して埋込型の補綴具を埋植する際の指針となるガイダンス情報の3次元仮想モデルを含み得る。
[0099]図6は、外科的ライフサイクル300の術前段階302における例となるステップを例示するフローチャートである。他の例では、術前段階302は、より多くの、より少ない、又は異なるステップを含み得る。更に、他の例では、図6のステップのうちの1つ又は複数は、異なる順序で実行され得る。いくつかの例では、ステップのうちの1つ又は複数は、仮想計画システム102(図1)又は術前手術計画システム202(図2)などの手術計画システム内で自動的に実行され得る。
[0100]図6の例では、関心領域(region of interest)のモデルが生成される(600)。例えば、関心領域のスキャン(例えば、CTスキャン、MRIスキャン、又は他のタイプのスキャン)が実行され得る。例えば、関心領域が患者の肩である場合、患者の肩のスキャンが実行され得る。仮想計画システムは、スキャンに基づいて関心領域の仮想モデル(例えば、3次元仮想モデル)を生成し得る。更に、関心領域内の病変が分類され得る(602)。いくつかの例では、関心領域の病変は、関心領域のスキャンに基づいて分類され得る。例えば、関心領域がユーザの肩である場合、外科医は、患者の肩のスキャンに基づいて患者の肩の何が異常であるかを決定し、例えば、原発性関節窩上腕骨関節炎(PGHOA)、回旋腱板断裂関節症(RCTA)不安定性、回旋腱板広範囲断裂(MRCT)、リウマチ性関節炎、外傷後関節炎、及び変形性関節症などの診断を示す肩分類を提供し得る。
[0101]追加的に、病変に基づいて手術計画が選択され得る(604)。手術計画は、病変に対処する計画である。例えば、関心領域が患者の肩である例では、手術計画は、解剖学的肩関節形成術、リバース型肩関節形成術、外傷後肩関節形成術、又は以前の肩関節形成術の再置換から選択され得る。次いで、手術計画が患者に合わせて調整され得る(606)。例えば、手術計画を調整することは、選択された手術計画を実行するために必要とされる手術アイテムを選択及び/又はサイズ決定することを含み得る。追加的に、手術計画は、骨棘の存在などの患者固有の問題に対処するために、患者に合わせて調整され得る。本開示の他の箇所で詳細に説明されるように、1人以上のユーザは、整形外科手術システム100の複合現実システムを使用して、手術計画を患者に合わせて調整し得る。
[0102]次に、手術計画が検討され得る(608)。例えば、手術計画が実行される前に、コンサルティング外科医が手術計画を検討し得る。本開示の他の箇所で詳細に説明されるように、1人以上のユーザは、整形外科手術システム100のMRシステムを使用して、手術計画を検討し得る。いくつかの例では、外科医は、例えば、異なる処置の選択、インプラントのサイズ決定、形状、若しくは位置決めの変更、又はインプラントに収容するような骨表面の切断若しくはリーミングの角度、深さ、若しくは量の変更を行うために、UI及び表示された要素と対話することによって、MRシステムを使用して手術計画を修正し得る。
[0103]追加的に、図6の例では、手術計画を実行するのに必要な手術アイテムが要求され得る(610)。
[0104]本開示の以下のセクションで説明されるように、整形外科手術システム100は、図6の術前ステップのうちの1つ又は複数のものを行う際に、様々なユーザを支援し得る。いくつかの例では、少なくとも1人の外科医を含む1人以上のユーザは、術中セッティングにおいて整形外科手術システム100を使用して、肩関節手術を実行し得る。
[0105]図7は、肩関節修復手術の例となる段階を例示するフローチャートである。上述したように、図7では、肩関節手術のための例となる外科的プロセスが説明される。外科医は、外科的プロセスの各ステップの間、視覚化デバイス213を装着するか又は別の方法で使用し得る。他の例では、肩関節手術は、より多い、より少ない、又は異なるステップを含み得る。例えば、肩関節手術は、骨移植片を加えるステップ、セメントを加えるステップ、及び/又は他のステップを含み得る。いくつかの例では、視覚化デバイス213は、外科医、看護師、又は他のユーザが手術ワークフロー内のステップを行う際の指針となる仮想ガイダンスを提示し得る。
[0106]図7の例では、外科医は、切開プロセス(700)を実行する。切開プロセス中、外科医は、患者の肩関節を露出させるために一連の切開を行う。いくつかの例では、MRシステム(例えば、MRシステム212など)は、例えば、切開をどのようにどこに行うかを例示する仮想ガイダンス画像を表示することによって、外科医が切開プロセスを実行するのを助け得る。
[0107]更に、図7の例では、外科医は、上腕骨切断プロセス(702)を実行し得る。上腕骨切断プロセス中、外科医は、患者の上腕骨の上腕骨頭の一部を除去し得る。上腕骨頭の一部を除去することにより、外科医は患者の関節窩にアクセスすることができる。追加的に、上腕骨頭の一部を除去することにより、外科医は、その後、上腕骨頭の一部を、外科医が患者の関節窩に埋植する予定の関節窩インプラントと適合する上腕骨インプラントと置換することができる。
[0108]上述したように、上腕骨準備プロセスは、外科医が患者の関節窩にアクセスすることを可能にし得る。図7の例では、上腕骨準備プロセスを実行した後、外科医は、視覚化デバイス213によって外科医に提示された視野内で、仮想関節窩オブジェクトを患者の実際の関節窩骨と位置合わせする位置合わせプロセス(704)を実行し得る。
[0109]図8Aは、3D仮想骨モデルを患者の実際の観察された骨構造と位置合わせするための技法800の例を例示する。換言すると、図8Aは、図2の複合現実システム212などの複合現実システムに実装される、仮想骨モデルを観察された骨と位置合わせするための、例えば、視覚化デバイス213によって実行されるプロセスフローの例である。以下で説明する図8Bは、物理的な位置合わせマーカを使用して3D仮想骨モデルを骨構造に位置合わせするための別の技法818を例示する。図8A及び8Bに説明される3D仮想骨モデル及び実際の観察された骨構造は、例えば、それぞれ、図9~図16と併せて以下で説明される3D仮想骨モデル1008及び実際の観察された骨構造252に対応し得る。
[0110]図8Aを更に参照すると、3D仮想骨モデルは、1つ又は複数の骨の全て又は一部のモデルであり得る。図8Aのプロセスフローは、図7のステップ704の位置合わせプロセスの一部として実行され得る。位置合わせプロセスは、初期化及び最適化(例えば、最小化)という2つのステップで実行され得る。初期化中、MRシステム212のユーザは、術前の仮想計画システム102から導出される情報、ユーザの頭部の向き(これはユーザの目の方向(「注視」又は「注視線」と呼ばれる)の指示を提供する)、複数の方向へのユーザの頭部の回転、センサ530、532、及び/若しくは533(又は他の取得センサ)によって収集されたセンサデータ、並びに/又は音声コマンド及び/若しくは手のジェスチャと共に視覚化デバイス213を使用して、3D仮想骨モデルと観察された骨構造とのおおよそのアライメントを視覚的に達成する。より具体的には、ブロック802において、3D仮想骨モデルの表面上の関心点(point of interest)又は領域、及びその領域の表面上の関心点(又は領域)に対する仮想法線ベクトルが、仮想計画システム102を使用した術前計画中に識別される。
[0111]ブロック804において、MRシステム212は、識別された関心点(又は領域)をユーザの注視点(例えば、視覚化デバイス213の視野内の中心点)に接続する。従って、視覚化デバイス213のユーザの頭部が移動又は回転すると、3D仮想骨モデルも空間内で移動及び回転する。
[0112]肩関節形成処置の例では、3D仮想骨モデルの表面上の関心点は、BLUEPRINT(登録商標)計画システムなどの仮想計画システム102を使用することによって決定され得る仮想関節窩のおおよその中心であり得る。いくつかの例では、仮想関節窩のおおよその中心は、機械学習アルゴリズム若しくは人工知能システムを用いて重心発見アルゴリズムを使用して又は別のタイプのアルゴリズムを使用して決定され得る。他のタイプの骨修復/置換処置の場合、骨の他の点又は領域が識別され、次いで、ユーザの注視線又は注視点に接続され得る。
[0113]ユーザの注視点を中心として空間内で3D仮想骨モデルを移動及び回転させる能力だけでは、一般に、3D仮想骨モデルを観察された骨に方向付けるのに十分ではない。従って、初期化手順の一部として、MRシステム212はまた、深度センサ530、光学センサ532、及びモーションセンサ533から収集されたセンサデータを使用して、視覚化デバイス213と視覚化デバイス213の視野内の観察された骨の表面上の1つの点(又は複数の点)との間の距離、及びその表面の向きを決定する(ブロック808)。例えば、関節窩は、局所的には平面で近似され得るため、比較的単純な表面である。従って、関節窩の表面の向きは、表面上の点(例えば、中心点)に対して垂直(すなわち、直角)であるベクトルを決定することによって近似され得る。この法線ベクトルは、本明細書では「観察法線ベクトル」と呼ばれる。しかしながら、他の骨が上腕骨又は膝関節などのより複雑な表面を有し得ることは理解されるべきである。これらのより複雑なケースでは、向きを決定するために他の表面記述子が使用され得る。
[0114]特定の骨にかかわらず、距離情報は、深度カメラ(複数可)532からMRシステム212によって導出され得る。この距離情報は、観察された骨の表面の幾何学的形状を導出するために使用され得る。すなわち、深度カメラ(複数可)532は、深度カメラ(複数可)532の視野内の任意の点に対応する距離データを提供するため、観察された骨上のユーザの注視点までの距離が決定され得る。この情報を用いて、次いで、ユーザは、3D仮想骨モデルを空間内で移動させ、注視点を使用して、関心点又は領域において、観察された骨とおおまかにアラインすることができる(図8Aのブロック810)。すなわち、ユーザが観察された骨構造に注視をシフトすると、仮想骨モデル(これはユーザの注視線に接続される)は、ユーザの注視と共に移動する。次いで、ユーザは、3D仮想骨モデルの位置を調整するために、手のジェスチャを使用して、音声コマンドを使用して、及び/又は仮想インターフェースを使用して、ユーザの頭部(ひいては注視線)を移動させることによって、3D仮想骨モデルを観察された骨構造とアラインすることができる。例えば、3D仮想骨モデルが、観察された骨構造とおおまかにアラインされると、ユーザは、MRシステム212に初期アライメントを捕捉させる音声コマンド(例えば、「セット」)を提供し得る。3Dモデルの向き(「ヨー」及び「ピッチ」)は、ユーザの頭部を回転させること、手のジェスチャを使用すること、音声コマンドを使用すること、及び/又は仮想オブジェクト及び観察されたオブジェクトの初期(又はおおまかな)アライメントが達成され得るようにユーザの注視線を中心として3D仮想骨モデルを回転させる仮想インターフェースを使用することによって、調整され得る(図8Aのブロック812)。このようにして、3D仮想骨モデルは、仮想法線ベクトル及び観察法線ベクトルをアラインすることによって、観察された骨に方向付けられる。必要に応じて、初期アライメントの追加の調整が実行され得る。例えば、音声コマンドを提供した後に、ユーザは追加のユーザ入力を提供して、観察された骨構造に対する3D仮想骨モデルの向き又は位置を調整し得る。この初期アライメントプロセスは、外科医が仮想骨と観察された骨とをおおまかにアラインすることができるように、手術中に(又はリアルタイムで)実行される。いくつかの例、例えば初期アライメントが不十分であると外科医が判断した場合では、外科医は、点280をユーザの注視線にロックし直すために、MRシステム212に初期アライメントを解除させるユーザ入力(例えば、「リセット」などの音声コマンド)を提供し得る。
[0115]図8Aのブロック814において、3D仮想骨モデルと観察された骨構造との初期アライメントが(少なくともおおまかに)達成されたことをユーザが検出する(例えば見る)と、ユーザは、微細位置合わせプロセス(すなわち、最適化(例えば、最小化)アルゴリズムの実行)が開始され得ることをMRシステム212に知らせるために、可聴又は他の知覚可能な指示を提供することができる。例えば、ユーザは、MRシステム212に、微細位置合わせプロセスを実行するための最小化アルゴリズムを実行させる音声コマンド(例えば、「マッチ」)を提供し得る。最適化プロセスは、任意の好適な最適化アルゴリズム(例えば、反復最近点又は遺伝的アルゴリズムなどの最小化アルゴリズム)を採用して、3D仮想骨モデルと観察された骨構造とのアライメントを完成させることができる。図8Aのブロック816において、最適化アルゴリズムの実行が完了すると、位置合わせ手順が完了する。
[0116]図9は、肩関節形成処置のための例となる位置合わせプロセスのステップを例示する概念図である。図10は、図9の肩関節形成処置の例となる位置合わせプロセスの追加のステップを例示する概念図である。図9において、視覚化デバイス213のユーザの注視線278は、3D仮想骨モデル1008(関節窩)の表面282上の以前に識別された関心点(又は注視点)280と接続される。図9はまた、表面282上の点280に対する仮想法線ベクトル(N)284を示す。図10において、視覚化デバイス213のユーザは、注視線278を、観察された骨構造252の表面288上の関心領域286にシフトする。注視線278は仮想骨モデル1008の中心点280に接続されているため、注視線278をシフトすることにより、仮想骨モデル1008の仮想中心点280が、観察された関心領域286とアラインされる。しかしながら、図10に示されるように、注視をシフトするだけでは、中心点/領域280、286はアラインされても、仮想骨モデル1008(破線で示される)を観察された骨構造252に適切に方向付けられない可能性がある。上述したように観察法線ベクトル(N)290が決定されると、視覚化デバイス213は、適切な向きが達成され(破線で示される)、仮想法線ベクトル(N)284が観察法線ベクトル290とアラインされるまで、仮想骨モデル1008の向き(ピッチ及びヨー)を調整することができる。ユーザは、仮想骨モデル1008を対応する実際の骨と適切にアラインするために、関節窩を通るアラインされた軸を中心として仮想骨モデル1008を回転させ得る。
[0117]図11及び図12は、肩関節形成処置のための例となる位置合わせプロセスを例示する概念図である。図9に示される位置合わせプロセスと同様に、図11は、視覚化デバイス213のユーザの視点を例示する。図11に示されるように、関心点280は、仮想骨モデル1008上に示されている。上述したように、ユーザの注視が点280に接続されると、ユーザは、ユーザの注視をシフトすることによって仮想骨モデル1008を移動させることができ、この場合、視覚化デバイス213は、注視のシフトを検出し、対応する方法で仮想骨モデルを移動させる。図12に示されるように、仮想骨モデル1008を観察された骨構造252とアラインさせるために、ユーザは、矢印281によって示される方向にユーザの注視をシフトし得る。
[0118]肩関節形成術などのいくつかの外科的骨修復処置では、ユーザの注視だけを使用して仮想骨及び観察された骨をアライン及び方向付けすることは困難であり得る。これらの課題は、骨(例えば、関節窩)が皮膚からかなり深いところにあるために、外科的切開が行われた後であっても、視覚化デバイス213を骨の近くに位置決めすることが困難である場合があること、影によって骨が見えにくくなる場合があること、対象の骨表面全体が見えない場合があること、及びユーザが安定した凝視を維持することが困難であり得、その結果、仮想骨の位置決めが不安定になり得ること、を含む多くの要因によって生じる。いくつかの例では、これらの課題に対処するために、骨上の特定の位置(複数可)(例えば、肩関節形成処置のための関節窩の中心)に配置された仮想ランドマーク(複数可)を使用することによって位置合わせ手順を容易にすることができる。そのような例では、仮想ランドマークが配置される位置及びその位置における表面法線を使用して、仮想骨及び観察された骨の初期化変換(又は位置合わせ変換)を自動的に決定することができる。所望であれば、仮想ランドマークを使用して仮想骨と観察された骨との間で達成されるアライメントは、ユーザが、音声コマンド、手のジェスチャ、仮想インターフェースボタンを使用することによって、及び/又は骨表面上の様々な位置に追加の仮想マーカを位置決めすることによって、更に調整されることができる。
[0119]図13は、仮想マーカ292を使用した例となる位置合わせ手順を例示する。図14は、仮想マーカを使用した図8Aの例となる位置合わせ手順の追加のステップを例示する概念図である。図13及び図14の例では、視覚化デバイス213のユーザは、注視線278をシフトして、観察された骨構造252の中心領域286(例えば、中心点)に仮想マーカ292を設定する。仮想的に位置決めされたマーカ292、仮想法線ベクトル284、及び観察法線ベクトル290を活用して、仮想骨モデル1008と観察された骨構造252との間の初期化変換が決定され得る。次いで、上で説明したように、仮想骨モデル1008と観察された骨構造252との間の最適な位置合わせを取得するために、最適化アルゴリズム(又は位置合わせアルゴリズム)が実行される。
[0120]いくつかの例では、初期化手順は、関心点ではなく骨表面上の関心領域に基づいて実施され得る。そのような例では、視覚化デバイス213の深度カメラ(複数可)532及び/又は光学カメラ(複数可)530(図4)によって収集された画像データを処理して、観察された骨の位置及び向きの識別を容易にすることとなる表面記述子を検出し、仮想骨と観察された骨との間の初期化変換を決定することができる。
[0121]上述したように、いくつかの例では、初期化は、ユーザによって支援され得る(例えば、観察された骨構造252の中心領域286に仮想マーカ292を設定するためにユーザが注視線278をシフトすることによって支援され得る)。いくつかの例では、MRシステム212は、ユーザからの最小限の支援を受けて又は支援なしで、位置合わせプロセス全体(例えば、任意の初期化ステップを含む)を実行し得る。例えば、MRシステム212は、深度カメラ(複数可)532及び/又は光学カメラ(複数可)530(図4)によって収集された画像データを処理して、対象の解剖学的構造(例えば、観察された骨構造252)の位置を自動的に識別し得る。このように、MRシステム212は、ユーザが解剖学的構造の一部を見ていることに応答して、解剖学的構造の一部の仮想モデルを解剖学的構造の対応する観察部分に位置合わせし得る(例えば、外科医は、視覚化デバイス213を装着している間、解剖学的構造の一部を見るだけでよい)。MRシステム212は、任意の好適な技法を使用して位置を自動的に識別し得る。例えば、MRシステム212は、機械学習モデルを使用して(すなわち、ランダムフォレストアルゴリズムなどの機械学習を使用して)、画像データを処理し、対象の解剖学的構造の位置を識別し得る。
[0122]より一般的に言えば、図8A及び図8Bを参照して説明される位置合わせ方法は、3D仮想モデルに関する第1のローカル基準座標系を決定し、観察される実際の解剖学的構造に関する第2のローカル基準座標系を決定するものと見なされ得る。いくつかの例では、MRシステム212はまた、光学カメラ530及び/又は深度カメラ532及び/又はモーションセンサ533(又は任意の他の取得センサ)から収集された光学画像データを使用して、ユーザが位置する環境(例えば、手術室)に関するグローバル基準座標系を決定することができる。他の例では、グローバル基準座標系は、他の方法で定義され得る。いくつかの例では、深度カメラ532は、Microsoft HOLOLENS(登録商標)ヘッドセット又は同様のMR視覚化デバイスなどの複合現実ヘッドセットであり得る視覚化デバイス213に外部結合される。例えば、深度カメラ532は、視覚化デバイス213から取り外し可能であり得る。いくつかの例では、深度カメラ532は視覚化デバイス213の一部であり、これは同じく、複合現実ヘッドセットであり得る。例えば、深度カメラ532は、視覚化デバイス213の外側ハウジング内に含まれ得る。
[0123]位置合わせプロセスは、変換行列の生成をもたらし、変換行列は、仮想骨と観察された骨との間のアライメントを達成及び維持するために、3D仮想骨モデルのx、y、及びz軸に沿った並進と、x、y、及びz軸を中心とした回転とを可能にする。
[0124]いくつかの例では、仮想マーカのうちの1つ又は複数は、例として、光学マーカ又は電磁マーカなどの1つ又は複数の物理的マーカと置換及び/又は補完されることができる。図16は、実際の観察された骨構造252の周りに位置決めされた物理的マーカの例を例示する。一般に、1つ又は複数の物理的マーカは、位置合わせされているオブジェクト(例えば、実際の観察された骨構造252又はツール)上又はその周りの様々な位置に位置決めされ得る。図16の例に示されるように、固定光学マーカ1601は、肩関節形成処置において、上腕骨頭が切除された後に上腕骨上の特定の位置を画定するために使用され得る。図16の例では、固定光学マーカ1601は、この光学マーカの単一面上に平面基準マーカ1601Aを含み得る。図16に示されるように、基準マーカは、マーカ1601の先端1601Bの近位にある物理的マーカの一部上に位置決めされ得る。いくつかの例では、MRシステム212は、基準マーカの特徴(例えば、重心又は中心点)と物理的マーカの先端との間の距離を取得し得る。一例として、距離は、予め決定され、MRシステム212のメモリに記憶され得る。別の例として、MRシステム212は、基準マーカの光学特性に基づいて距離を決定し得る(すなわち、距離は、基準マーカで符号化され得る)。上腕骨の特定の位置の知識(これは仮想的に設定され得る)は、ユーザが頭部の移動及び回転を採用する必要なく、MRシステム212が仮想骨を自動的に初期化/位置合わせすることを可能にし得る。
[0125]一般に、物理的マーカは、どこにでも配置され得る。例えば、物理的マーカは、患者(例えば、非滅菌野)、外科的に露出された解剖学的構造(滅菌野)、器具、手術視野内のどこか、又は任意の他の好適な位置に取り付けられ得る。
[0126]物理的マーカは、実際の観察されたオブジェクト(例えば、骨構造252)に対する特定の位置の識別を可能にする任意のタイプのマーカであり得る。物理的マーカの例には、パッシブ物理的マーカ及びアクティブ物理的マーカが含まれるが、必ずしもこれらに限定されない。パッシブ物理的マーカは、MRシステム212によるそれらの識別に役立つ物理的なパラメータを有し得る。例えば、物理的マーカは、MRシステム212によるそれらの識別に役立つ特定の形状(例えば、実際の観察された骨構造252に取り付けられ得る球状マーカ)、及び/又は光学特性(例えば、反射性材料、色(例えば、手術環境においてより見やすい緑色などの色)、バーコード(1次元又はQRコード(登録商標)などの2次元バーを含む)など)を有し得る。パッシブ物理的マーカは、3次元又は2次元であり得る。パッシブ物理的マーカは、それらの存在/位置がMRシステム212によって受動的に検出されるという点でパッシブであると見なされ得る。パッシブ物理的マーカは、例えば、剥離層を剥がすことで露出した裏面粘着層によって、骨、ツール、又は他の構造に接着貼付け可能な平面基準マーカを有する平坦な又は可撓性2次元ステッカーであり得る。代替的に、パッシブ物理的マーカは、例えば、外科用接着剤、ねじ、釘、クランプ、及び/又は他の固定機構を用いて骨に固定され得る。
[0127]アクティブ物理的マーカは、MRシステム212によるそれらの識別に役立つ1つ又は複数のアクションを実行し得る。例えば、アクティブ物理的マーカは、MRシステム212によるそれらの識別に役立つ信号(例えば、電磁信号)を出力し得る。アクティブ物理的マーカの例には、Northern Digital Incから入手可能なtrakSTAR(登録商標)及び/又はdriveBAY(登録商標)システム用のセンサ又は送信機が含まれるが、これらに限定されない。
[0128]電磁追跡(すなわち、「EM追跡」と呼ばれる、電磁物理的マーカを使用した追跡)は、磁場発生器(FG)によって生成され得る既知のジオメトリの磁場内にセンサを位置決めすることによって達成され得る。センサは、磁束又は磁場を測定し得る。追跡デバイスは、FGを制御し、センサから測定値を受信し得る。受信した測定値に基づいて、追跡デバイスは、センサの場所/位置を決定し得る。EM追跡に関するより詳細な説明は、Alfred M.Franzらによる、「Electromagnetic Tracking in Medicine-A Review of Technology, Validation, and Applications」、IEEE TRANSACTIONS ON MEDICAL IMAGING、VOL. 33、NO. 8, AUGUST 2014に見られ得る。
[0129]図8Bは、物理的マーカ(例えば、パッシブ物理的マーカ及びアクティブ物理的マーカの任意の組合せ)を使用して、3D仮想骨モデル1008を患者の実際の観察された骨構造252と位置合わせするための技法818の例を例示する。換言すると、図8Bは、図2の複合現実システム212などの複合現実システムに実装される、仮想骨モデルを観察された骨と位置合わせするための、例えば、視覚化デバイス213によって実行されるプロセスフローの一例である。3D仮想骨モデル1008は、1つ又は複数の骨の全て又は一部のモデルであり得る。図8Bのプロセスフローは、図7のステップ704の位置合わせプロセスの一部として実行され得る。以下で説明されるように、図8Bの位置合わせプロセスは、図8Aの位置合わせプロセスに加えて、又はその代わりに使用され得る。
[0130]動作中、施術者は、特定の位置に1つ又は複数の物理的マーカを配置し得る。いくつかの例では、MRシステム212は、施術者が物理的マーカをどこに配置すべきかに関する命令を出力し得る。所定の位置は、観察された骨構造252に対応する仮想モデル上の特定の位置に対応し得る。例えば、一例では、視覚化デバイス213は、(例えば、患者適合ガイド242が使用可能であるかどうかにかかわらず)患者適合ガイド242の位置に対応する位置に(例えば、外科用接着剤、ねじ、釘、クランプ、及び/又は他の固定機構を用いて)物理的マーカを取り付けるように施術者に求める命令を表示し得る。換言すると、施術者は、患者適合ガイド242が存在しない場合であっても、患者適合ガイド242が取り付けられたであろう位置に物理的マーカを取り付け得る。他の例では、所定の位置は、マーカの取付け又は他の配置のために物理的な骨又はツール(複数可)上の対応する位置を外科医に選択させるために、テキスト情報、グラフィック情報、又は可聴情報によって示され得る。例えば、MRシステム212は、外科医が図16の光学マーカ1601の先端1601Bを上腕骨に取り付ける際の指針となるグラフィック情報を出力し得る。
[0131]MRシステム212は、1つ又は複数のセンサ(例えば、図5の視覚化デバイス213のセンサ554のうちの1つ又は複数)からのデータを利用して、物理的マーカの位置を識別し得る(820)。例えば、MRシステム212は、深度センサ532及び/又は光学センサ530の任意の組合せによって生成されたデータを使用して、物理的マーカの各々の特定の位置(例えば、座標)を識別し得る。1つの特定の例として、MRシステム212は、光学センサ530によって生成された光学データを利用して、図16の光学マーカ1601Aの重心を識別し得る。次いで、MRシステム212は、深度センサ532によって生成された深度データ及び/又は光学センサ530によって生成された光学データを利用して、識別された重心の位置及び/又は向きを決定し得る。MRシステム212は、重心と物理的マーカの取付け点との間の距離を決定し得る。例えば、MRシステム212は、図16の基準マーカ1601Aの重心と光学マーカ1601の先端1601Bとの間の距離を決定し得る。決定された距離(すなわち、重心と取付け点との間の距離)及び重心の決定された位置/向きに基づいて、MRシステム212は、取付け点の位置/向きを決定し得る。
[0132]MRシステム212は、物理的マーカの識別された位置に基づいて、仮想モデルを観察された解剖学的構造と位置合わせし得る(822)。例えば、物理的マーカが観察された骨構造252に対応する仮想モデル上の特定の位置(複数可)に対応する位置で、観察された骨構造252上に配置される場合、MRシステム212は、仮想モデルと観察された骨構造252との間の変換行列を生成し得る。この変換行列は、仮想骨と観察された骨との間のアライメントを達成及び維持するために、仮想モデルのx、y、及びz軸に沿った並進と、x、y、及びz軸を中心とした回転とを可能にするという点で、上述した変換行列と同様であり得る。いくつかの例では、位置合わせが完了した後、MRシステム212は、位置合わせの結果を利用して、SLAM(simultaneous localization and mapping)を実行し、対応する観測されたオブジェクトに対する仮想モデルのアライメントを維持する。
[0133]以下でより詳細に述べるように、MRシステム212は、位置合わせに基づいて、プロテーゼの取付けのために観察された解剖学的構造を準備するための仮想ガイダンス、又は観察された解剖学的構造にプロテーゼを取り付けるための仮想ガイダンスを表示し得る(824)。例えば、MRシステム212は、図20~図30の任意の組合せを参照して以下に説明されるように、仮想ガイダンスを提供し得る。
[0134]上述したように、物理的マーカは、仮想マーカ(例えば、仮想マーカ292)に加えて、又はその代わりに使用され得る。換言すると、MRシステム212は、物理的マーカと仮想マーカとの任意の組合せを使用して、対応する観察された骨に対する骨の仮想モデルの位置合わせを実行し得る。いくつかの例では、物理的マーカを(単独で又は仮想マーカと共に)使用することで、MRシステム212は、位置合わせを実行するのに必要な時間量を低減することができ得、及び/又はより正確な位置合わせが得られ得る。
[0135]いくつかの例では、MRシステム212は、仮想マーカ又は物理的マーカの一方を一次位置合わせマーカとして使用し、他方を二次、すなわち補足的な、位置合わせマーカとして使用し得る。一例として、MRシステム212は、一次位置合わせマーカを使用して位置合わせを実行しようと試みることから位置合わせプロセスを開始し得る。そのような例では、MRシステム212が、一次位置合わせマーカだけを使用して位置合わせを適切に完了することができない(例えば、仮想解剖学的構造と観察された解剖学的構造との間の変換行列などのマッピングを生成することができない)場合、MRシステム212は、二次位置合わせマーカだけ、又は一次位置合わせマーカと二次位置合わせマーカとの組合せを使用して位置合わせを実行しようと試み得る。1つの特定の例では、MRシステム212が仮想マーカ(複数可)だけを使用して位置合わせを適切に完了することができない場合、MRシステム212は、物理的マーカ(複数可)だけ、又は仮想位置合わせマーカ(複数可)と物理的な位置合わせマーカ(複数可)との組合せを使用して位置合わせを実行しようと試み得る。
[0136]MRシステム212が、一次位置合わせマーカだけを使用して位置合わせを適切に完了することができない状況では、MRシステム212は、二次位置合わせマーカを使用した位置合わせを可能にするために1つ又は複数のアクションを実行するように施術者に求める要求を出力し得る。一例として、二次位置合わせマーカが物理的マーカである場合、MRシステム212は、観察された解剖学的構造に対して特定の位置に物理的マーカを位置決めするよう施術者に求める要求を出力し得る。別の例として、二次位置合わせマーカが仮想マーカである場合、MRシステム212は、図8Aを参照して上述した初期アライメント手順を実行するように施術者に求める要求及び対応するグラフィカルユーザインターフェース(例えば、3D仮想骨モデル1008)を出力し得る。
[0137]いくつかの例では、施術者は、(例えば、位置合わせが完了した後に)物理的マーカを除去し得る。例えば、MRシステム212が物理的マーカを使用して位置合わせプロセスを完了した後、MRシステム212は、物理的マーカを除去してもよいことを示す指示を出力し得る。物理的マーカが除去される例では、MRシステム212は、仮想マーカ又は任意の他の好適な追跡技法を使用して、観察された骨に対する仮想骨モデルの位置合わせを維持し得る。
[0138]いくつかの例では、施術者は、手術において後の時点まで物理的マーカを除去しなくてもよい。例えば、施術者は、観察された骨に対する仮想モデルの位置合わせがもはや必要とされなくなるまで(例えば、位置合わせを使用する全ての仮想ガイダンスが表示され、対応する手術ステップが完了した後)、物理的マーカを除去しなくてもよい。
[0139]いくつかの例では、MRシステム212は、処置の間中、仮想骨モデルと観察された骨(例えば、関節窩、上腕骨、又は他の骨構造)との間の位置合わせを維持することが可能であり得る。しかしながら、場合によっては、MRシステム212は、仮想骨モデルと観察された骨との間の位置合わせを失うか、又は他の理由で維持することができない場合がある。例えば、MRシステム212は、(例えば、仮想、物理的、又はその両方の)マーカのうちの1つ又は複数を見失い得る。このような喪失は、体液(例えば、血液)がマーカを閉塞すること、マーカが外れること(例えば、物理的マーカが適所から外れること)などを含むがこれらに限定されない任意の数の要因の結果であり得る。このように、MRシステム212は、位置合わせが失われているかどうかを定期的に決定し得る(826)。
[0140]いくつかの例では、MRシステム212は、仮想点と対応する物理点との間の信頼距離が閾値信頼距離(例えば、臨床値)を超える場合、位置合わせが失われたと決定し得る。MRシステム212は、現在の位置合わせの精度を表す値として信頼距離を定期的に決定し得る。例えば、MRシステム212は、仮想点と対応する物理点との間の距離が3mm未満であると決定し得る。
[0141]いくつかの例では、MRシステム212は、信頼距離の表現を出力し得る。一例として、MRシステム212は、視覚化デバイス213に、信頼距離の数値を表示させ得る。別の例として、MRシステム212は、視覚化デバイス213に、閾値信頼距離に対する信頼距離のグラフィカル表現を表示させ得る(例えば、信頼距離が閾値信頼距離の半分未満である場合には緑色の円を表示させ、信頼距離が閾値信頼距離の半分から閾値信頼距離までである場合には黄色の円を表示させ、信頼距離が閾値信頼距離よりも大きい場合には赤色の円を表示させ得る)。
[0142]いくつかの例では、MRシステム212は、外科手術の間中、同じ閾値信頼距離を利用し得る。例えば、MRシステム212は、(例えば、図20~図30を参照して以下で説明される)全ての上腕骨作業ステップに対して特定の閾値信頼距離を利用し得る。いくつかの例では、MRシステム212は、外科手術の様々な部分に対して異なる閾値信頼距離を利用し得る。例えば、MRシステム212は、作業ステップの第1のセットに対して第1の閾値信頼距離を利用し、作業ステップの第2のセットに対して第2の閾値信頼距離(これは作業ステップの第1のセットに対する第1の閾値信頼距離とは異なる)を使用し得る。
[0143]位置合わせが失われていない場合(826の「No」分岐)、MRシステム212は、仮想ガイダンスを表示し続け得る(824)。しかしながら、MRシステム212が位置合わせを失う場合(826の「Yes」分岐)、MRシステム212は、仮想骨モデルを観察された骨に再位置合わせするために1つ又は複数のアクションを実行し得る。一例として、MRシステム212は、施術者からの更なるアクションなしに、自動的に、位置合わせプロセスを実行するように試み得る。例えば、物理的マーカが除去されていない場合である。MRシステム212は、物理的マーカを使用して位置合わせプロセスを実行し得る。代替的に、物理的マーカが除去されている(又は配置されたことがない)場合、MRシステム212は、物理的マーカを配置するように施術者に求める要求を出力し得る。このように、MRシステム212は、仮想モデルを観察された骨に定期的に位置合わせすると見なされ得る。
[0144]いくつかの例では、位置合わせが失われている場合に再位置合わせを自動的に試みるのとは対照的に、MRシステム212は、位置合わせが依然として必要かどうかに基づいて再位置合わせを選択的に実行し得る(828)。いくつかの例では、MRシステム212は、追加の仮想ガイダンスが表示されることとなる場合、位置合わせが依然として必要であると決し得る。MRシステム212が、位置合わせがもはや必要でないと決定した場合(828の「No」分岐)、MRシステム212は、位置合わせ手順を終了し得る。
[0145]上で説明したように、MRシステム212は、対応する観察された構造に対する仮想モデルの位置合わせを可能にするために、仮想マーカと物理的マーカとの任意の組合せを利用し得る。MRシステム212は、マーカのいずれかを使用して初期位置合わせを実行し得、必要であれば、MRシステム212は、マーカのいずれかを使用して再位置合わせを実行し得る。初期位置合わせに使用されるマーカは、任意の再位置合わせに使用されるマーカと同じであっても異なっていてもよい。
[0146]いくつかの例では、位置合わせの精度及び品質を向上させるために、位置合わせプロセスの初期化段階中に、MRシステム212は、ユーザの頭部の姿勢及び向きに関する空間的制約を計算及び表示することができる。これらの制約は、ユーザの位置、及び/又は向き、及び/又は観察された骨までの距離、及び/又は深度カメラ特性に依存してリアルタイムで計算され得る。例えば、MRシステム212は、観察された骨のより近くに移動するように、ユーザの注視線が、観察された骨の対象の表面に対して垂直になるように頭部位置を調整するように、又は位置合わせプロセスを向上させるのに有用であり得、特定の手術アプリケーション及び/又は対象の特定の解剖学的構造の属性及び/又はMRシステム212で採用される光学センサ及び深度センサの特性に依存し得る任意の他の調整を行うようにユーザに促し得る。
[0147]いくつかの例では、深度カメラ(複数可)532は、構造化光アプローチ又は好適な波長を有する光信号の飛行時間を使用することによって距離を検出する。一般に、光信号の波長は、深度カメラ(複数可)532によって送信される光信号による、観察された解剖学的構造の表面の浸透が最小限に抑えられるように選択される。しかしながら、距離を検出するための他の既知の又は将来開発される技法も採用され得ることは理解されるべきである。
[0148]以下で述べるように、本明細書で説明される位置合わせ技法は、仮想モデル及び観察されたオブジェクトの任意の対に対して実行され得る。一例として、MRシステムは、位置合わせ技法を利用して、骨の仮想モデルを観察された骨に位置合わせし得る。別の例として、MRシステムは、位置合わせ技法を利用して、インプラントの仮想モデルを観察されたインプラントに位置合わせし得る。MRシステムは、位置合わせ技法を利用して、ツールの仮想モデルを観察されたツールに位置合わせし得る。
[0149]いくつかの例では、MRシステムは、仮想モデル及び観察されたオブジェクトの特定の対に対して(例えば、特定の外科手術内で)位置合わせ技法を1回実行し得る。例えば、MRシステムは、関節窩の仮想モデルを観察された関節窩と位置合わせし、この位置合わせを利用して、外科手術の複数のステップのための仮想ガイダンスを提供し得る。いくつかの例では、MRシステムは、仮想モデル及び観察されたオブジェクトの特定の対に対して(例えば、特定の外科手術内で)位置合わせ技法を複数回実行し得る。例えば、MRシステムは、最初に、関節窩の仮想モデルを観察された関節窩と位置合わせし、この位置合わせを利用して、外科手術の1つ又は複数のステップのための仮想ガイダンスを提供し得る。次いで、例えば、関節窩から(例えば、リーミングによって)物質が除去された後、MRシステムは、関節窩の別の仮想モデル(これは除去された物質を考慮している)を観察された関節窩と位置合わせし、その後の位置合わせを使用して、外科手術の1つ又は複数の他のステップのための仮想ガイダンスを提供することができる。
[0150]位置合わせが完了すると、MRシステム212のオーグメント手術モードを使用して手術計画を実行することができる。例えば、図15は、本開示の一例による、複合現実システムのオーグメント手術モードにあるときにユーザが知覚可能な画像を例示する。図15の例に示されるように、外科医は、観察された骨構造252上の仮想的に計画された侵入点294及び穿孔軸296を視覚化し、それらの仮想画像を使用して、手術ツールの位置決め及びアライメントを支援することができる。穿孔軸296は、リーミング軸とも呼ばれ得、リーミングプロセスをガイドするガイドピンを配置するために穴を関節窩に穿孔するための仮想ガイドを提供する。
[0151]位置合わせプロセスは、本開示の他の箇所で説明される仮想計画プロセス及び/又は術中ガイダンスと併用され得る。従って、一例では、特定の患者の対象の解剖学的構造(例えば、特定の患者の肩関節)を修復するために、仮想手術計画が生成されるか又は他の方法で取得される。仮想手術計画が取得される事例では、別のコンピューティングシステムが仮想手術計画を生成し得、MRシステム(例えば、MRシステム212)又は他のコンピューティングシステムが、通信媒体又は非一時的記憶媒体などのコンピュータ可読媒体から仮想手術計画を取得する。この例では、仮想手術計画は、術前画像データに基づいて生成された対象の解剖学的構造の3D仮想モデルと、対象の解剖学的構造を修復するために特定の患者に対して選択された人工部品とを含み得る。更に、この例では、ユーザは、仮想手術計画を実施するためにMRシステム(例えば、MRシステム212)を使用し得る。この例では、MRシステムを使用することの一部として、ユーザは、特定の患者に対する仮想手術計画を要求し得る。
[0152]追加的に、ユーザは、実環境内に投影された手術計画の仮想画像を見ることができる。例えば、MRシステム212は、本開示の様々な例で説明されるように、例えば患者の実際の解剖学的構造を有する実環境内に存在するようにオブジェクトが表示されるように3D仮想オブジェクトを提示し得る。この例では、手術計画の仮想画像は、対象の解剖学的構造の3D仮想モデル、人工部品の3Dモデル、及び対象の解剖学的構造を修復するための手術ワークフローの仮想画像のうちの1つ又は複数を含み得る。更に、この例では、ユーザは、3D仮想モデルを、特定の患者の対象の実際の解剖学的構造と位置合わせし得る。次いで、ユーザは、この位置合わせに基づいて対象の実際の解剖学的構造を修復するために、仮想的に生成された手術計画を実施し得る。換言すると、オーグメント手術モードでは、ユーザは、視覚化デバイスを使用して、対象の解剖学的構造の3D仮想モデルを対象の実際の解剖学的構造とアラインすることができる。
[0153]そのような例では、MRシステムは、3D仮想モデルが対象の実際の解剖学的構造とアラインされる(例えば、最適にアラインされる)位置合わせプロセスを実施する。この例では、ユーザは、仮想マーカも物理的マーカも使用することなく、3D仮想モデルを対象の実際の解剖学的構造と位置合わせし得る。換言すると、3D仮想モデルは、仮想マーカも物理的マーカも使用することなく、対象の実際の解剖学的構造とアライン(例えば、最適にアライン)され得る。MRシステムは、この位置合わせを使用して、対象の実際の解剖学的構造に対して仮想手術計画を実施している間、対象の実際の解剖学的構造の動きを追跡し得る。いくつかの例では、MRシステムは、追跡マーカを使用することなく、対象の実際の解剖学的構造の動きを追跡し得る。
[0154]いくつかの例では、3D仮想モデルを対象の実際の解剖学的構造と位置合わせすることの一部として、3D仮想モデルは、(例えば、ユーザによって)対象の実際の解剖学的構造とアラインされ、このアライメントに基づいて3D仮想モデルと対象の実際の解剖学的構造との間の変換行列を生成することができる。変換行列は、仮想的に生成された手術計画を対象の実際の解剖学的構造に変換するための座標系を提供する。例えば、位置合わせプロセスにより、ユーザは、対象の実際の解剖学的構造上に投影された仮想手術計画のステップを見ることができる。例えば、3D仮想モデルと対象の実際の解剖学的構造とのアライメントは、対象の実際の解剖学的構造上に投影された仮想手術計画のステップ(例えば、対象の実際の解剖学的構造を修復するために人工インプラントを位置決めするための侵入点の識別)をユーザが見ることを可能にし得る変換行列を生成し得る。
[0155]いくつかの例では、位置合わせプロセス(例えば、位置合わせプロセスを使用して生成された変換行列)により、ユーザは、追跡マーカを使用することなく、対象の実際の解剖学的構造に対して仮想手術計画を実施することができる。いくつかの例では、3D仮想モデルを対象の実際の解剖学的構造とアラインすることは、3D仮想モデルの表面上の関心点を対象の実際の解剖学的構造の表面上の対応する関心点の位置に位置決めすることと、関心点における仮想面法線が対応する関心点における実際の面法線とアラインされるように3D仮想モデルの向きを調整することとを含む。いくつかのそのような例では、関心点は、関節窩の中心点である。
[0156]引き続き図7を参照すると、位置合わせプロセスを実行した後、外科医は、リーミング軸穿孔プロセス(706)を実行し得る。リーミング軸穿孔プロセス中、外科医は、リーミングガイドピンを受け入れるためのリーミング軸ガイドピンホールを患者の関節窩に穿孔し得る。肩関節手術における後の段階で、外科医は、リーミング軸ガイドピンホールにリーミング軸ピンを挿入し得る。いくつかの例では、MRシステム(例えば、MRシステム212など)は、仮想リーミング軸を提示して、外科医がこのリーミング軸に合わせて穿孔を実行し、それによって、リーミングガイドピンを正しい位置に正しい向きで配置するのを助け得る。
[0157]外科医は、様々な方法のうちの1つでリーミング軸穿孔プロセスを実行し得る。例えば、外科医は、リーミング軸ピンホールを穿孔するために、ガイドベースのプロセスを実行し得る。この場合、リーミング軸ピンホールの穿孔をガイドするために、物理的ガイドが関節窩に配置される。他の例では、外科医は、例えば、適切なアライメントでリーミング軸ピンホールを穿孔するように外科医をガイドする仮想リーミング軸を提示して、ガイドフリープロセスを実行し得る。MRシステム(例えば、MRシステム212など)は、リーミング軸ピンホールを穿孔するために、外科医が、これらのプロセスのいずれかを実行するのを助け得る。
[0158]更に、図7の外科的プロセスにおいて、外科医は、リーミング軸ピン挿入プロセス(708)を実行し得る。リーミング軸ピン挿入プロセス中、外科医は、患者の肩甲骨に穿孔されたリーミング軸ピンホールにリーミング軸ピンを挿入する。いくつかの例では、MRシステム(例えば、MRシステム212など)は、外科医がリーミング軸ピン挿入プロセスを実行するのを助けるために、仮想ガイダンス情報を提示し得る。
[0159]リーミング軸ピン挿入プロセスを実行した後、外科医は、関節窩リーミングプロセス(710)を実行し得る。関節窩リーミングプロセス中、外科医は、患者の関節窩をリーミングする。患者の関節窩をリーミングすることにより、関節窩インプラントを設置するための適切な表面が得られ得る。いくつかの例では、患者の関節窩をリーミングするために、外科医は、外科用ドリルにリーミングビットを取り付け得る。リーミングビットは、リーミングビットの回転軸に沿って軸方向の空洞を定義する。軸方向の空洞は、リーミング軸ピンの外径に対応する内径を有する。リーミングビットを外科用ドリルに取り付けた後、外科医は、リーミング軸ピンがリーミングビットの軸方向の空洞内にくるようにリーミングビットを位置決めし得る。従って、関節窩リーミングプロセス中、リーミングビットは、リーミング軸ピンの周りを回転し得る。このようにして、リーミング軸ピンは、関節窩リーミングプロセス中にリーミングビットがふらつくのを防止し得る。いくつかの例では、複数のツールを使用して患者の関節窩をリーミングし得る。MRシステム(例えば、MRシステム212など)は、外科医又は他のユーザが関節窩リーミングプロセスを実行するのを助けるために、仮想ガイダンスを提示し得る。例えば、MRシステムは、外科医などのユーザが関節窩リーミングプロセスで使用するリーミングビットを選択するのを助け得る。いくつかの例では、MRシステムは、外科医がユーザの関節窩をリーミングする深さを外科医が制御するのを助けるために、仮想ガイダンスを提示する。いくつかの例では、関節窩リーミングプロセスは、患者の関節窩の異なる部分をリーミングするために、旧リーミングステップ及び新リーミングステップを含む。
[0160]追加的に、図7の外科的プロセスでは、外科医は、関節窩インプラント設置プロセス(712)を実行し得る。関節窩インプラント設置プロセス中、外科医は、患者の関節窩に関節窩インプラントを設置する。外科医が解剖学的肩関節形成術を行っているいくつかの事例では、関節窩インプラントは、ユーザの天然の関節窩の代替物として作用する凹面を有する。外科医がリバース型肩関節形成術を行っている他の事例では、関節窩インプラントは、ユーザの天然の上腕骨頭の代替物として作用する凸面を有する。このリバース型肩関節形成術では、外科医は、関節窩インプラントの凸面上を摺動する凹面を有する上腕骨インプラントを設置し得る。図7の肩関節手術の他のステップにあるように、MRシステム(例えば、MRシステム212など)は、外科医が関節窩設置プロセスを実行するのを助けるために、仮想ガイダンスを提示し得る。
[0161]いくつかの例では、関節窩設置プロセスは、関節窩インプラントを患者の肩甲骨に固定するプロセス(714)を含む。いくつかの例では、関節窩インプラントを患者の肩甲骨に固定するプロセスは、1つ又は複数のアンカー孔又は1つ又は複数のねじ孔を患者の肩甲骨に穿孔することと、インプラントの1つ又は複数のペグ又はキールなどのアンカーをアンカー孔(複数可)に位置決めすること、及び/又は、場合によってはセメント又は他の接着剤を使用して、関節窩インプラント及びねじ孔を通してねじを挿入することとを含む。MRシステム(例えば、MRシステム212など)は、関節窩インプラントを関節窩骨に固定するプロセスに関して外科医を助けるための仮想ガイダンスを提示し得、これには、例えば、関節窩に穿孔又は他の方法で形成されるアンカー又はねじ孔を示す仮想ガイダンス、及び孔へのアンカー又はねじの配置が含まれる。
[0162]更に、図7の例では、外科医は、上腕骨準備プロセス(716)を実行し得る。上腕骨準備プロセス中、外科医は、上腕骨インプラントの設置のために上腕骨を準備する。外科医が解剖学的肩関節形成術を行っている事例では、上腕骨インプラントは、患者の天然の上腕骨頭の代替物として作用する凸面を有し得る。上腕骨インプラントの凸面は、関節窩インプラントの凹面内で摺動する。外科医がリバース型肩関節形成術を行っている事例では、上腕骨インプラントは凹面を有し得、関節窩インプラントは対応する凸面を有する。本開示の他の箇所で説明されるように、MRシステム(例えば、MRシステム212など)は、外科医が上腕骨準備プロセスを実行するのを助けるための仮想ガイダンス情報を提示し得る。
[0163]更に、図7の例となる外科的プロセスでは、外科医は、上腕骨インプラント設置プロセス(718)を実行し得る。上腕骨インプラント設置プロセス中、外科医は、患者の上腕骨上に上腕骨インプラントを設置する。本開示の他の箇所で説明されるように、MRシステム(例えば、MRシステム212など)は、外科医が上腕骨準備プロセスを実行するのを助けるために、仮想ガイダンスを提示し得る。
[0164]上腕骨インプラント設置プロセスを実行した後、外科医は、設置された関節窩インプラントと設置された上腕骨インプラントとをアラインするインプラントアライメントプロセス(720)を実行し得る。例えば、外科医が解剖学的肩関節形成術を行っている事例では、外科医は、上腕骨インプラントの凸面を関節窩インプラントの凹面に入れ子にし得る。外科医がリバース型肩関節形成術を行っている事例では、外科医は、関節窩インプラントの凸面を上腕骨インプラントの凹面に入れ子にし得る。その後、外科医は、創縫合プロセス(722)を実行し得る。創縫合プロセス中、外科医は、患者の肩の創傷を縫合するために、切開プロセス中に切断された組織を再び繋げ得る。
[0165]肩関節形成術アプリケーションの場合、位置合わせプロセスは、視覚化デバイス213が、例えば、仮想計画システム102によって患者の解剖学的構造の術前画像から生成された患者の肩甲骨及び関節窩の3D仮想骨モデル1008をユーザに提示することから開始し得る。次いで、ユーザは、手術環境においてユーザが観察している患者の実際の肩甲骨及び関節窩と3D仮想骨モデル1008をアライン及び方向付けるように、3D仮想骨モデル1008を操作することができる。このように、いくつかの例では、MRシステムは、初期化及び/又は位置合わせに役立つユーザ入力を受信し得る。しかしながら、上述したように、いくつかの例では、MRシステムは、初期化及び/又は位置合わせプロセスを自動的に(例えば、3D骨モデルを位置決めするためのユーザ入力を受信することなく)実行し得る。膝関節、股関節、足、足関節、又は肘関節などに関する他のタイプの関節形成処置では、異なる関連する骨構造が、仮想3D画像として表示され、患者の実際の実物の解剖学的構造と同様にアライン及び方向付けられ得る。
[0166]関与する関節又は解剖学的構造の特定のタイプにかかわらず、オーグメント手術モードの選択は、3D仮想骨モデル1008が観察された骨構造と位置合わせされる手順を開始する。一般に、位置合わせ手順は、古典的な最適化問題(例えば、最小化又は最大化のいずれか)と見なされ得る。肩関節形成処置の場合、最適化(例えば、最小化)分析への既知の入力には、(深度カメラ(複数可)532からの深度データを含む、視覚化デバイス213からのセンサデータから導出される)観察された患者の骨の3Dジオメトリ、及び(例えば、BLUEPRINT(登録商標)システムを使用することによって)仮想手術計画状態中に導出される3D仮想骨のジオメトリがある。他の入力には、侵入点の位置及び向き、切断面、リーミング軸及び/若しくは穿孔軸、並びに骨構造を成形するためのリーミング若しくは穿孔の深さ、人工部品のタイプ、サイズ、及び形状、並びに人工部品が埋植されることとなる位置及び向き、又は骨折の場合、骨構造を再構築する方法などの手術計画の詳細(同じく、例えば、BLUEPRINT(登録商標)システムを使用することによって仮想手術計画段階中に導出される)が含まれる。
[0167]MRシステム212(図4)によって提示されたUIのウェルカムページから特定の患者を選択すると、その患者に関連する手術計画パラメータが、例えば、視覚化デバイス213の1つ又は複数のプロセッサによって、患者の3D仮想骨モデル1008に接続される。オーグメント手術モードでは、視覚化デバイス213による(接続された事前計画パラメータを有する)3D仮想骨モデル1008と観察された骨との位置合わせにより、外科医は、患者上で手術計画パラメータの仮想表現を視覚化することができる。
[0168]3D仮想骨モデル1008と実際の骨との位置合わせを達成するために実施される最適化(例えば、最小化)分析は、一般に、初期化段階及び最適化(例えば、最小化)段階という2つの段階で実行される。初期化段階中、ユーザは、例えば、注視方向、手のジェスチャ、及び/又は音声コマンドを使用して、仮想骨と観察された実際の骨とのアライメントを位置決め及び方向付けるか、又は別の方法で調整することによって、3D仮想骨モデル1008を患者の実際の骨とおおまかにアラインする。初期化段階については、以下でより詳細に説明する。同じく以下で詳細に説明する最適化(例えば、最小化)段階中、光学カメラ(複数可)530及び/又は深度カメラ(複数可)532及び/又は任意の他の取得センサ(例えば、モーションセンサ533)からの情報を使用して3Dモデルと対象の観察された解剖学的構造とのアライメントを更に改善する最適化(例えば、最小化)アルゴリズムが実行される。いくつかの例では、最適化(例えば、最小化)アルゴリズムは、例として反復最近点アルゴリズム又は遺伝的アルゴリズムなどの任意の既知の又は将来開発される最小化アルゴリズムを含む最小化アルゴリズムであり得る。
[0169]このようにして、一例では、複合現実手術計画方法は、特定の患者の対象の解剖学的構造を修復するために、仮想手術計画を生成することを含む。対象の解剖学的構造の3D仮想モデルを含む仮想手術計画は、対象の解剖学的構造の修復するために、術前画像データと、特定の患者に対して選択された人工部品とに基づいて生成される。更に、この例では、方法は、MR視覚化システムを使用して仮想手術計画を実施することを含む。この例では、MRシステムを使用することは、特定の患者に対する仮想手術計画を要求することを含み得る。MRシステムを使用することはまた、実環境内に投影された手術計画の仮想画像を見ることを含む。例えば、視覚化デバイス213は、例えば、仮想画像(複数可)が実環境の一部を形成するように表示されるように、実環境内に投影される手術計画の詳細の1つ又は複数の3D仮想画像を提示するように構成され得る。手術計画の仮想画像は、対象の解剖学的構造の3D仮想モデル、人工部品の3Dモデル、及び対象の解剖学的構造を修復するための手術ワークフローの仮想画像を含み得る。MRシステムを使用することはまた、3D仮想モデルを特定の患者の対象の実際の解剖学的構造と位置合わせすることを含み得る。追加的に、この例では、MRシステムを使用することは、位置合わせに基づいて対象の実際の解剖学的構造を修復するために仮想的に生成された手術計画を実施することを含み得る。
[0170]更に、いくつかの例では、本方法は、仮想マーカも物理的マーカも使用することなく、3D仮想モデルを対象の実際の解剖学的構造と位置合わせすることを含む。本方法はまた、対象の実際の解剖学的構造に対して仮想手術計画を実施している間、対象の実際の解剖学的構造の移動を追跡するために位置合わせを使用することを含み得る。対象の実際の解剖学的構造の動きは、追跡マーカを使用せずに追跡され得る。いくつかの事例では、3D仮想モデルを対象の実際の解剖学的構造と位置合わせすることは、3D仮想モデルを対象の実際の解剖学的構造とアラインすることと、このアライメントに基づいて3D仮想モデルと対象の実際の解剖学的構造との間の変換行列を生成することとを含み得る。変換行列は、仮想的に生成された手術計画を対象の実際の解剖学的構造に変換するための座標系を提供する。いくつかの例では、アラインすることは、対象の実際の解剖学的構造の表面上の対応する関心領域内で3D仮想モデルの表面上の関心点を仮想的に位置決めすることと、関心点に関連する仮想表面形状が対応する関心領域に関連する実際の表面形状とアラインされるように3D仮想モデルの向きを調整することとを含み得る。いくつかの例では、アラインすることは、ユーザの注視線を中心として3D仮想モデルを回転させることを更に含み得る。関心領域は、対象の解剖学的構造の解剖学的ランドマークであり得る。対象の解剖学的構造は、肩関節であり得る。いくつかの例では、解剖学的ランドマークは、関節窩の中心領域である。
[0171]いくつかの例では、位置合わせプロセスが完了した後、オーグメント手術モード中に3D仮想骨モデル1008と観察された骨構造252との間の位置合わせを連続的かつ自動的に検証する追跡プロセスを開始することができる。手術中、3D解剖学的モデルと対応する観察された患者の解剖学的構造との間の位置合わせを乱す可能性があるか、又はモデルと観察された解剖学的構造との間の位置合わせを維持するMRシステム212の能力を妨げる可能性がある多くの事象(例えば、患者が動くこと、器具が動くこと、追跡の損失など)が生じる可能性がある。従って、追跡機能を実施することによって、MRシステム212は、位置合わせを連続的又は定期的に検証し、必要に応じて位置合わせパラメータを調整することができる。MRシステム212が不適切な位置合わせ(閾値量を超える患者の動きなど)を検出した場合、ユーザは、位置合わせプロセスを再開始するように求められ得る。
[0172]いくつかの例では、解剖学的構造上の特定の位置に固定される、図16に示されるマーカ1601などの1つ又は複数の光学マーカを使用して追跡を実施することができる。MRシステム212は、3D空間内において、関連性のある解剖学的構造の位置及び向きを追跡するために光学マーカ(複数可)を監視する。マーカの動きが検出された場合、MRシステム212は、動きの量を計算し、次いで、それに応じて位置合わせパラメータを変換することで、位置合わせプロセスを繰り返すことなく3Dモデルと観察された解剖学的構造との間のアライメントを維持することができる。
[0173]他の例では、追跡はマーカレスである。例えば、光学マーカを使用するのではなく、MRシステム212は、対象の観察された解剖学的構造のジオメトリに基づいてマーカレス追跡を実施する。いくつかの例では、マーカレス追跡は、追跡アルゴリズムのための明確なアンカーポイントを提供する骨の解剖学的ランドマークの位置に依存し得る。明確なランドマークが利用できない状況又はアプリケーションでは、可視の骨の形状又は他の解剖学的構造のジオメトリを使用する追跡アルゴリズムを実施することができる。そのような状況では、光学カメラ530(複数可)及び/又は深度カメラ532(複数可)及び/又はモーションセンサ533(例えば、IMUセンサ)からの画像データを使用して、可視の解剖学的構造のジオメトリ及び動きに関する情報を導出することができる。マーカレス追跡に使用可能な追跡アルゴリズムの例は、David J.Tanらによる、「6D Object Pose Estimation with Depth Images: A Seamless Approach for Robotic Interaction and Augmented Reality」、arXiv:1709.01459v1 [cs,CV] (Sept. 5, 2017)に記載されているが、任意の好適な追跡システムが使用され得る。いくつかの例では、MRシステム212のマーカレス追跡モードは、追跡が開始される前に、追跡アルゴリズムが可視の解剖学的構造のジオメトリを学習する学習段階を含むことができる。学習段階は、限られた処理能力でリアルタイムに追跡を実行することができるように、追跡の性能を向上させることができる。
[0174]図17は、本開示の一例による、MRシステム212のオーグメント手術モードで追跡するためのプロセスフロー1700の例を例示する。図17のプロセスは、MRシステム212の視覚化デバイス213によって実行され得る。ブロック1702において、学習プロセスが実行され、その間、追跡アルゴリズムは、仮想骨モデルに基づいて、対象の解剖学的構造のジオメトリを学習する。いくつかの例では、学習は、オフラインで(すなわち、手術前に)実行される。ブロック1704において、オーグメント手術モード中に追跡が開始される。ブロック1706において、対象の解剖学的構造の動きが連続的に(又は定期的に)監視される。ブロック1708において、検出された動きが閾値量を超える場合、ユーザは、図8A又は図8Bの位置合わせプロセスを再開始するように促され得る(ブロック1712)。上述したように、いくつかの例では、MRシステム212は、検出された動きが閾値量を超える場合、位置合わせプロセスを自動的に再開始及び/又は実行し得る。そうでない場合、動きの量を使用して、必要に応じて、位置合わせパラメータを変換する(ブロック1710)。
[0175]いくつかの例では、マーカ及びマーカレス追跡の両方が実施可能である。例えば、光学マーカは、マーカレス追跡アルゴリズムのバックアップとして、又は追跡アルゴリズムの検証として使用され得る。更に、マーカ及び/又はマーカレス追跡を実施するという選択は、ユーザの裁量に任せられ得るか、又は特定の外科手術及び可視である特定の解剖学的特徴に依存し得る。
[0176]いくつかの例では、手術計画に従って外科医をガイドするために、上述されたものと同じ追跡技法のいずれかを使用して、手術器具又はツール(マーカ(例えば、可視、赤外線など)又はマーカレス(例えば、ツールジオメトリ))を追跡して、器具の姿勢及び向きが正しいことを確実にすることができる。外科医が手術器具を使用する際に指針となるように、MRシステム212は、可視インジケータを表示するか、又は器具を特定の方向に移動させるように外科医に促す他の知覚可能な指示(例えば、振動、可聴ビープ音など)を提供することができる。例えば、MRシステム212は、外科医が見ることができる円を生成することができ、この円は、同心であるとき、ツールが手術計画に従ってアラインされていることを示すものである。
[0177]本開示の他の箇所で説明したように、整形外科手術は、患者の解剖学的構造に対して様々な作業を行うことを含み得る。行われ得る作業のいくつかの例には、切断、穿孔、リーミング、ねじ留め、接着、及びインパクティングが含まれるが、必ずしもこれらに限定されない。一般に、施術者(例えば、外科医、医師の助手、看護師など)ができるだけ正確に作業を行うことが望ましいであろう。例えば、特定の患者にプロテーゼを埋め込むための手術計画において、患者の解剖学的構造の一部が特定の直径で特定の深さまでリーミングされるべきであることが指定されている場合、(例えば、プロテーゼが計画通りに適合して機能し、それによって患者の良好な健康転帰を促進する可能性を高めるために)外科医が患者の解剖学的構造の一部を特定の直径及び特定の深さにできるだけ近づけるようにリーミングすることが望ましいであろう。
[0178]いくつかの例では、外科医は、「フリーハンド」で(すなわち、ツールのための機械的又は視覚的ガイド/補助を伴わずに、ツールを適用すること又は別の方法で使用することによって)1つ又は複数の作業工程を行い得る。例えば、図18A~18Cに示されるように、肩関節形成処置の最中に、外科医は、上腕骨1800の解剖学的頸部1802を視覚的に推定(例えば、「視認(eyeball)」)し、マーキングすることによって、上腕骨1800の上腕骨頭1804の切除の外科的ステップを実行し得る。次いで、外科医は、外科医のフリーハンドで、すなわち、機械的又は視覚的ガイダンスを用いずに、マーキングされた解剖学的頸部1802に沿って切断ツール1806(例えば、振動鋸の刃)をガイドすることによって、上腕骨頭1804の切除を実行し得る。しかしながら、完全にフリーハンドでこれらのタイプの作業工程を伴う外科的ステップを実行することは、望ましくないエラーを引き起こし得、整形外科手術の結果を損なう可能性がある。
[0179]いくつかの例では、整形外科手術の最中に、外科医は、機械的ガイドを用いて、外科的ステップとも呼ばれ得る、1つ又は複数の作業工程を行い得る。例えば、図19に示されるように、外科医は、(例えば、図7のステップ702の上腕骨切断プロセスを実行することの一部として)上腕骨頭1804の切除を実行する前に、機械的ガイド1808を上腕骨1800に取り付け得る。外科医は、機械的ガイド1808の上面1810が上腕骨1800の解剖学的頸部1802と同一平面上となるように、機械的ガイド1808の1つ又は複数の部品を調整し得る(例示の目的で、解剖学的頸部1802は、破線で例示されている)。機械的ガイド1808を上腕骨頭1804に取り付けて、機械的ガイドを調整した後に、外科医は、上面1810に沿って切断ツール(例えば、振動鋸の刃)をガイドすることによって、上腕骨頭1804の切除を実行し得る。しかしながら、機械的ガイドの利用は望ましくない場合がある。一例として、機械的ガイドの取付け及び/又は調整は、外科手術に更なる時間を導入する。別の例として、機械的ガイドは、機械的ガイドのための追加のコスト、並びに/又は(例えば、手術中及び期末前の棚卸し(pre-closing inventory)の間)機械的ガイドを滅菌及び追跡するための追加の時間をもたらし得る追加のツールである。
[0180]本開示の1つ又は複数の技法によれば、MRシステム212などの視覚化システムは、患者の解剖学的構造の一部に対して作業を行うための1つ又は複数の仮想ガイドを含む仮想ガイダンスを表示するように構成され得る。例えば、視覚化システムは、仮想切断面を、患者の上腕骨の解剖学的頸部上に重ねて表示し得る。いくつかの例では、外科医などのユーザは、現実世界のシーン内の現実世界のオブジェクトを見ることができる。現実世界のシーンは、外科手術室などの現実世界の環境にあり得る。本開示では、実際の/実物の(real)及び現実世界(real world)という用語が同様に使用され得る。現実世界のシーンにおいてユーザが見る現実世界のオブジェクトは、手術中に露出される、実際の関節窩又は上腕骨などの患者の実際の実物の解剖学的構造を含み得る。ユーザは、視覚化デバイス213などの頭部装着型MR視覚化デバイスのシースルーホログラフィックレンズなどのシースルーの(例えば、透明な)画面を介して、現実世界のオブジェクトを見るだけでなく、例えば、仮想オブジェクトが実際の現実世界のシーンと統合されているようにユーザに表示された状態で、MRガイダンスオブジェクト(複数可)が、現実世界のシーンの一部のように表示されるように、画面上又は現実世界のシーン内に投影されているように表示される仮想MRオブジェクトなどの仮想ガイダンスを見ることもできる。例えば、仮想切断面/線は、切断面が、透明な画面を通して、例えば、シースルーホログラフィックレンズを通して、外科医が見る患者の実際の上腕骨の実際の観察されたビュー上に重ねられて、そしてその視野内に配置されているように表示されるように、視覚化デバイス213などのMR視覚化デバイスの画面上に投影され得る。従って、この例では、仮想切断面/線は、実際の現実世界のオブジェクトと共に、現実世界の環境の一部のように表示される仮想3Dオブジェクトであり得る。
[0181]外科医が実際の実物の解剖学的構造を見るだけでなく、仮想解剖学的構造及び/又は仮想手術ガイダンスなどの仮想オブジェクトも観察する画面は、1つ又は複数のシースルーホログラフィックレンズを含み得る。「導波路」と呼ばれることもあるホログラフィックレンズは、ユーザがレンズを通して現実世界のオブジェクトを見ることと、投影されたホログラフィックオブジェクトをユーザが見るために表示することとを可能にし得る。上述したように、視覚化デバイス213のための好適な頭部装着型MRデバイスの例は、米国ワシントン州レドモンドのマイクロソフト社から入手可能なMicrosoft HOLOLENS(登録商標)ヘッドセットである。HOLOLENS(登録商標)ヘッドセットは、投影された画像がユーザに提示される、導波路とも呼ばれるシースルーホログラフィックレンズを含む。HOLOLENS(登録商標)ヘッドセットはまた、内部コンピュータと、カメラ及びセンサと、ホログラフィックレンズを介してホログラフィックコンテンツをユーザが見るために投影する投影システムとを含む。一般に、Microsoft HOLOLENS(登録商標)ヘッドセット又は同様のMR視覚化デバイスは、先に述べたように、例えば、ディスプレイデバイスからの光を光導波路に結合する光学部品を介して、導波路とも呼ばれるホログラフィックレンズに画像を投影するLCoSディスプレイデバイスを含み得る。導波路は、ユーザが、導波路を介してユーザに提示される3D仮想画像も見ながら、導波路を通して現実世界のシーンを見ることを可能にし得る。いくつかの例では、導波路は、回折導波路であり得る。
[0182]仮想切断面などの提示仮想ガイダンスにより、外科医は、例えば、外科医が実際の上腕骨頭を見ながら視覚化システムを介して表示された仮想切断面に沿って鋸をガイドすることによって、機械的ガイドを必要とせずに上腕骨頭を正確に切除することができる。このようにして、視覚化デバイス213を有するMRシステム212などの視覚化システムにより、外科医は、正確な作業を行うことができるであろう(例えば、機械的ガイドの精度ではあるが、機械的ガイドの使用による欠点なしに)。この「ガイドレス」手術は、いくつかの例では、コスト及び複雑さの低減を提供し得る。
[0183]視覚化システム(例えば、MRシステム212/視覚化デバイス213)は、異なるタイプの仮想ガイドを表示するように構成され得る。仮想ガイドの例には、仮想点、仮想軸、仮想角度、仮想経路、仮想平面、及び仮想表面又は輪郭が含まれるが、これらに限定されない。上述したように、視覚化システム(例えば、MRシステム212/視覚化デバイス213)は、仮想ガイドが表示される、例えば投影されるレンズを介して、ユーザが、患者の解剖学的構造を直接見ることを可能にし得る。
[0184]視覚化システムは、本明細書で説明される仮想手術計画などの仮想手術計画から仮想ガイドのためのパラメータを取得し得る。仮想ガイドのための例となるパラメータには、ガイド位置、ガイド向き、ガイドタイプ、ガイド色などが含まれるが、必ずしもこれらに限定されない。
[0185]本開示の技法は、肩関節形成外科手術に関して以下に説明される。肩関節形成術の例には、リバース型関節形成術、拡張リバース型関節形成術、標準肩関節全形成術、拡張肩関節全形成術、及び半関節形成術が含まれるが、これらに限定されない。しかしながら、本技法は、そのように限定されるものではなく、視覚化システムは、任意のタイプの外科手術における仮想ガイドを含む、仮想ガイダンス情報を提供するために使用され得る。仮想ガイドを提供するためにMRシステム212などの視覚化システムが使用され得る他の例となる処置には、接尾辞「plasty」、「stomy」、「ectomy」、「clasia」、又は「centesis」が付くあらゆるタイプの処置、肘関節、手首、指関節、股関節、膝関節、足関節、若しくは足指などの他の関節のための整形外科手術、又は精密なガイダンスが望ましい任意の他の整形外科手術など、他のタイプの整形外科手術が含まれるが、これらに限定されない。
[0186]典型的な肩関節形成術は、患者の肩甲骨に対する様々な作業と、患者の上腕骨に対する様々な作業の実施とを含む。肩甲骨に対する作業は、一般に、インプラント部品の取付けのための肩甲骨(例えば、肩甲骨の関節窩)の準備及び準備された肩甲骨へのインプラント部品の取付けとして説明され得る。同様に、上腕骨に対する作業は、一般に、インプラント部品の取付けのための上腕骨の準備及び準備された上腕骨へのインプラント部品の取付けとして説明され得る。本明細書で説明されるように、視覚化システムは、そのような関節形成処置において行われる任意又は全ての作業のためのガイダンスを提供し得る。
[0187]上述したように、MRシステム(例えば、MRシステム212など)は、患者にプロテーゼを取り付けること、及び/又はプロテーゼを受け入れるために患者の骨、軟組織、若しくは他の解剖学的構造を準備することを行うための仮想手術計画を受信し得る。仮想手術計画は、行われるべき様々な作業及び行われるべき作業のための様々なパラメータを指定し得る。一例として、仮想手術計画は、リーミングを実行するための患者の関節窩上の位置及びリーミングのための深さを指定し得る。別の例として、仮想手術計画は、患者の上腕骨頭を切除するための表面を指定し得る。別の例として、仮想手術計画は、1つ又は複数の固定位置(例えば、ねじ、ステム、ペグ、キールなど)の位置及び/又は向きを指定し得る。
[0188]いくつかの例では、MRシステム212は、外科医が患者の上腕骨に対して作業を行うのを支援するための仮想ガイダンスを提供し得る。図23A~図30に示されるように、MRシステム212は、上腕骨頭の全て又は一部を除去するための切断などの上腕骨準備において外科医を支援するための仮想ガイダンスを提供し得る。図30は、本開示の1つ又は複数の技法による、インプラントを上腕骨に取り付けるための仮想ガイダンスを提供するMRシステム212を例示する概念図である。インプラントを上腕骨2000に取り付けるためにツールが使用され得る。例えば、外科医は、準備された上腕骨2000内にプロテーゼ2042を挿入するためにハンドル2040を利用し得る。いくつかの例では、1つ又は複数の接着剤(例えば、糊、セメントなど)が、挿入に先立って、プロテーゼ2042及び/又は上腕骨2000に適用され得る。図30に示されるように、MRシステム212は、インプラントを受け入れるための上腕骨の準備及び上腕骨内でのインプラントの位置決めなど、上腕骨インプラントの位置決めにおいて外科医を支援するための仮想ガイダンスを提供し得る。
[0189]プロテーゼを取り付けるために上腕骨を準備し、実際のプロテーゼの取付けを実行するために、多くの異なる技法が使用され得る。使用される技法にかかわらず、MRシステム212は、準備及び取付けの一方又は両方を支援するための仮想ガイダンスを提供し得る。このように、以下の技法は、MRシステム212が仮想ガイダンスを提供する例であるが、MRシステム212は、他の技法のための仮想ガイダンスを提供し得る。
[0190]例となる技法では、作業ステップは、上腕骨頭の切除、上腕骨に対するパイロットホールの作成、サウンディング、穿孔、コンパクティング、表面準備、及び上腕骨へのインプラントの取付けを含む。追加的に、いくつかの技法では、作業ステップは、上腕骨頭へのガイドの設置、例えば、関節窩などの骨表面に対するインプラントの増強のためにインプラントと共に配置するための移植片のリーミング、移植片の穿孔、移植片の切断、及び移植片の除去などの骨移植作業ステップを含み得る。
[0191]外科医は、患者の上腕骨を露出させるために1つ又は複数のステップを実行し得る。例えば、外科医は、上腕骨頭を含む上腕骨の上部を露出させるために1つ又は複数の切開を行うことができる。外科医は、露出を維持するために1つ又は複数の開創器を位置決めし得る。いくつかの例では、MRシステム212は、例えば、切開及び/又は開創器の配置を行うことによって、上腕骨の露出を支援するためのガイダンスを提供し得る。
[0192]図20及び図21は、本開示の1つ又は複数の技法による、上腕骨頭に機械的ガイドを設置するための仮想ガイダンスを提供するMRシステムを例示する概念図である。例示の目的で、周囲組織及び一部の骨は、図20及び図21並びに他の図から省略されていることに留意されたい。図20に示されるように、MRシステム212は、上腕骨2000の上腕骨頭2002上に仮想軸2004を表示し得る。図20及び後続の図は、視覚化デバイス213を介して見たときに外科医又は他のユーザが見るであろうものを例示する。特に、視覚化デバイス213を介して見るとき、外科医は、上腕骨2000の一部と、上腕骨2000の一部上に重ねられた仮想軸2004(及び/又は他の仮想ガイダンス)とを見るであろう。
[0193]仮想軸2004を表示するために、MRシステム212は、ガイドが設置されるべき上腕骨2000の仮想モデル上の位置を決定し得る。MRシステム212は、仮想手術計画(例えば、仮想計画システム202によって生成されるような上で説明した仮想手術計画)から位置を取得し得る。MRシステム212によって取得された位置は、ベクトル及び仮想モデル上の点の座標の一方又は両方を指定し得る。点は、ガイドが設置されるべき位置であり得、ベクトルは、ガイドが設置されるべき角度/傾斜を示し得る。
[0194]上述したように、上腕骨2000の仮想モデルは、仮想モデル上の座標が上腕骨2000上の座標にほぼ対応するように、上腕骨2000に位置合わせされ得る。このように、仮想モデル上の決定された位置に仮想軸2004を表示することによって、MRシステム212は、上腕骨2000上の計画された位置に仮想軸2004を表示し得る。
[0195]外科医は、表示された仮想ガイダンスを使用して物理的ガイドを取り付け得る。例えば、ガイドが、セルフタッピングねじ付き遠位先端を有するガイドピンである場合、外科医は、ガイドピンを表示された仮想軸2004とアラインし、ドリル又は他の器具を利用してガイドピンを設置し得る。いくつかの例では、MRシステム212は、外科医がガイドピンを計画された深さに設置することを可能にするために、深度ガイダンス情報を表示し得る。
[0196]図21は、上腕骨頭2002に設置されたガイド2006を例示する概念図である。ガイド2006は、上腕骨頭に形成された穴に取り付けられるように細長いピンの形態をとり得る。図20及び図21に示されるように、仮想軸2004を表示することによって、外科医は、上腕骨頭2002上の計画された位置にガイド2006を設置し得る。このようにして、MRシステム212は、追加の機械的ガイドを必要とすることなくガイドを設置することを可能にし得る。
[0197]上述したように、MRシステム212は、外科医がガイドピンを設置するのを支援するために、仮想マーカなどの仮想ガイダンスを提供し得る。例えば、図20の例では、MRシステム212は、外科医がガイドピンを設置するのを支援するために仮想軸2004を表示し得る。MRシステム212が表示し得る仮想マーカの他の例には、軸、点、円、リング、多角形、X字形、十字、又は任意の他の形状若しくは形状の組合せが含まれるが、これらに限定されない。MRシステム212は、仮想マーカを、静的に又は様々なアニメーション若しくは他の効果付きで表示し得る。
[0198]図22A~図22Dは、MRシステム212が表示し得る仮想マーカの例を例示する。図22Aは、MRシステム212が仮想マーカ2008Aを点として表示する例を例示する。図22Bは、MRシステム212が仮想マーカ2008Bを十字/X字形として表示する例を例示する。図22Cは、MRシステム212が仮想マーカ2008Cをレチクルとして表示する例を例示する。図22Dは、MRシステム212が仮想マーカ2008Dをレチクルと軸との組合せとして表示する例を例示する。
[0199]上述したように、いくつかの例では、MRシステム212は、様々なアニメーション又は他の効果付きで仮想マーカを表示し得る。一例として、MRシステム212は、回転リングを有するレチクルとして仮想マーカを表示し得る。別の例として、MRシステム212は、点滅する十字/X字形として仮想マーカを表示し得る。
[0200]MRシステム212は、特定の色で仮想マーカを表示し得る。例えば、いくつかの例では、MRシステム212は、好ましくは、緑色、青色、黄色など、赤色以外の色で仮想マーカを表示し得る。赤色以外の1つ又は複数の色で仮想マーカを表示することは、1つ又は複数の利益を提供し得る。例えば、血液は赤く見え、血液は対象の解剖学的構造上又はその周りに存在し得るため、赤色の仮想マーカでは見えない場合がある。
[0201]上で説明した様々なタイプの仮想マーカの使用は、ガイドピンの設置に限定されない。例えば、MRシステム212は、外科医が任意の作業を行うのを支援するために、上で説明した仮想マーカのいずれかを表示し得る。一例として、MRシステム212は、外科医が上腕骨2000に対して任意の作業を行うのを支援するために、上で説明した仮想マーカのいずれかを表示し得る。別の例として、MRシステム212は、外科医が肩甲骨又は別の他の骨に対して任意の作業を行うのを支援するために、上で説明した仮想マーカのいずれかを表示し得る。
[0202]インプラント部品の埋植に向けて上腕骨を準備するために、外科医は、上腕骨頭を切除、切断、又は別の方法で除去し得る。上腕骨頭切除のためのいくつかのMR支援型技法が企図され、それらには、移植片の除去を伴う上腕骨頭の切断及び移植片の除去を伴わない上腕骨頭の切断を含む技法が含まれる。第1の例となる技法では、MRシステム212は、外科医が、例えば移植片を取らずに上腕骨頭を切除する際の指針となる、仮想切断面などの仮想切断表面を表示し得る。この場合、機械的ガイドが必要なくなり得るため、精度を維持しつつ、処置をより簡潔にし、場合によっては費用を削減することができる。第1の例となる技法の更なる詳細については、図23A~図23Cを参照して以下で説明する。第2の例となる技法では、MRシステム212は、外科医が、上腕骨上に物理的ガイド、すなわち機械的ガイドを設置する際の指針となる仮想軸を表示し得、仮想軸は、外科医が、上腕骨頭を切除する際の指針となる。第2の例となる技法の更なる詳細については、図24を参照して以下で説明する。
[0203]図23A~図23Cは、本開示の1つ又は複数の技法による、上腕骨頭の切除のための仮想ガイダンスを提供するMRシステムを例示する概念図である。図23A及び図23Bに示されるように、MRシステム212は、上腕骨2000上の計画された位置に仮想切断面2010を表示し得る。仮想切断面2010を表示するために、MRシステム212は、上腕骨頭2002が切除されるべき上腕骨2000の仮想モデル上の位置を決定し得る。MRシステム212は、仮想手術計画(例えば、上で説明した仮想手術計画)から位置を取得し得る。このように、MRシステム212は、上腕骨の骨頭の一部の切除をガイドする仮想手術計画から取得された仮想切断表面(例えば、切断面)を表示し得る。
[0204]上述したように、上腕骨2000の仮想モデルは、仮想モデル上の座標が上腕骨2000上の座標にほぼ対応するように、上腕骨2000と位置合わせされ得る。このように、仮想モデル上の決定された位置に仮想切断面2010を表示することによって、MRシステム212は、上腕骨2000上の計画された位置に仮想切断面2010を表示し得る。
[0205]外科医は、表示された仮想ガイダンスを使用して上腕骨頭2002を切除し得る。例えば、外科医は、振動鋸2012を利用して、仮想切断面2010に沿って切断することによって上腕骨頭2002を切除し得る。いくつかの例では、MRシステム212は、ツール(例えば、振動鋸2012)が所定の平面上にあるかどうかを示すために、ターゲティングガイダンスを表示し得る。
[0206]図24は、本開示の1つ又は複数の技法による、仮想ガイダンスを使用して位置決めされる上腕骨頭切除のための物理的ガイドを例示する概念図である。上述したように、第2の例となる技法では、MRシステム212は、外科医が物理的ガイドを設置する際の指針となる仮想軸を表示し得、物理的ガイドは、外科医が上腕骨頭を切除する際の指針となる。例えば、MRシステム212は、図20及び図21を参照して上述したものと同様の技法を使用して、仮想軸などの仮想マーカを表示し得る。外科医は、仮想軸を使用して、物理的ガイド2006の設置をガイドし得る。このように、MRシステム212は、上腕骨内への穴の穿孔及び上腕骨内の穴へのガイドピンの取付けをガイドする、仮想手術計画から取得された仮想穿孔軸を表示し得る。
[0207]外科医は、切除ガイド2014の設置を支援するためにガイド2006を使用し得る(例えば、ガイドピンは、上腕骨への切除ガイドの取付けをガイドするように構成され得る)。一般に、切除ガイド2014は、上腕骨頭を切除するためのツール(例えば、振動鋸)を物理的にガイドするように構成された物理的アセンブリであり得る。図24の例では、切除ガイド2014は、プレート2016A及び2016B(集合的に「プレート2016」)と、上部プレート2022と、調整ねじ2020A及び2020B(集合的に「調整ねじ2020」)と、ガイド受容部2024とを含む。
[0208]ガイド受容部2024は、ガイド2006が切除ガイド2014を通り過ぎることができるように、ガイド2006を受け入れるようにサイズ決定され得る。プレート2016は、スロット2018を画定し、スロットは、物理的ガイドツール(例えば、振動鋸)を受け入れ、プレート2016間で切断面2026にわたってガイドするようにサイズ決定され得る。上部プレート2022は、上腕骨頭2002の頂部に接して静止するように構成され得る(自然に又は移植片を除去するために作業が行われた後のいずれかで)。調整ねじ2020は、プレート2016ひいては切断面2026を、上部プレート2022に対して位置決めするように、集合的に又は独立して調整され得る。
[0209]MRシステム212は、切除ガイド2014の位置決めを支援するための仮想ガイダンスを提供し得る。一例として、MRシステム212は、切断面2026の所望の位置に仮想切断面を表示し得る。外科医は、スロット2018が仮想切断面とアラインされるまで調整ねじ2020を調整し得る。いくつかの例では、MRシステム212は、どの調整ねじ2020を締めたり緩めたりすべきかに関するガイダンスを提供し得る。切除ガイド2014が適切に構成されると(例えば、スロット2018が仮想切断面とアラインされると)、外科医は、ツールを操作して上腕骨頭2002を切除し得る。
[0210]図25及び図26は、本開示の1つ又は複数の技法による、上腕骨にパイロットホールを作成するための仮想ガイダンスを提供するMRシステムを例示する概念図である。図25及び図26に示されるように、切除のヒンジ点において上腕骨管と一致するパイロットホールを作成するために、スターターオウル2028が使用され得る。
[0211]MRシステム212は、パイロットホールの作成を支援するための仮想ガイダンスを提供し得る。一例として、MRシステム212は、外科医がパイロットホールを形成すべき位置を表す仮想マーカ(例えば、仮想点2030)などのターゲティングガイダンスを表示し得る。例えば、MRシステム212は、上腕骨の骨頭が切除された後に上腕骨へのパイロットホールの作成をガイドする、仮想手術計画から取得される仮想軸を表示し得る。別の例として、MRシステム212は、所定の深さまでパイロットホールを作成する際に外科医を支援するために、深度ガイダンスを表示し得る。
[0212]図27は、本開示の1つ又は複数の技法による、上腕骨をサウンディングするための仮想ガイダンスを提供するMRシステムを例示する概念図である。図27に示されるように、上腕骨2000の遠位部分のサイズ上限を決定するためにサウンダ2032が使用され得る。いくつかの例では、本明細書で説明されるように、サイズ上限までの異なるサイズの複数のサウンダが使用され得る。
[0213]MRシステム212は、サウンディングを支援するための仮想ガイダンスを提供し得る。一例として、MRシステム212は、サウンダ2032のための仮想ターゲティングガイダンスを表示し得る。例えば、MRシステム212は、サウンダ2032がどこに挿入されるべきかを示す(例えば、図22A~図22Dを参照して上述したような)仮想マーカを表示し得る。
[0214]図28は、本開示の1つ又は複数の技法による、上腕骨を穿孔するための仮想ガイダンスを提供するMRシステムを例示する概念図である。図28に示されるように、外科医は、パンチテンプレート2034をサウンダ2032(又は、サウンディングステップ中に決定された最終サウンダ)に取り付け得る。次いで、外科医は、パンチ2036がテンプレート2034上で底に達するまで、パンチ2036をテンプレート2034内に配置し得る。次いで、外科医は、サウンダ2032、テンプレート2034、及びパンチ2036を上腕骨2000から引き抜くことによって、切り目を入れた骨を除去し得る。
[0215]MRシステム212は、穿孔を支援するための仮想ガイダンスを提供し得る。一例として、MRシステム212は、パンチ2036がテンプレート2034に適切に位置決めされているかどうかの指示を表示し得る。例えば、パンチ2036がテンプレート2034に適切に位置決めされている場合、MRシステム212は、適切な位置決めを示す仮想マーカ(例えば、チェックマーク)を表示し得る。同様に、パンチ2036がテンプレート2034に適切に位置決めされていない場合、MRシステム212は、不適切な位置決めを示す仮想マーカ(例えば、X)を表示し得る。
[0216]図29は、本開示の1つ又は複数の技法による、上腕骨をコンパクティングするための仮想ガイダンスを提供するMRシステムを例示する概念図である。図29に示されるように、コンパクタ2038は、ハンドル2040に取り付けられ、上腕骨2000内に挿入され得る。いくつかの例では、複数のコンパクタが使用され得る。例えば、外科医は、最終サウンダのサイズの3つ下のサイズのコンパクタから開始し、十分な固定が達成されるまで連続的にコンパクティングすることができる。十分な固定は、ハンドル2040のわずかなトルク運動によって評価され得る。十分な固定が達成されていれば、コンパクタ2038はこのテスト中上腕骨内で動かないはずである。
[0217]MRシステム212は、コンパクティングを支援するための仮想ガイダンスを提供し得る。一例として、MRシステム212は、十分な固定が達成されたかどうかの指示を表示し得る。例えば、MRシステム212が、十分な固定が達成されたと決定した場合、MRシステム212は、十分な固定を示す仮想マーカ(例えば、チェックマーク)を表示し得る。同様に、MRシステム212が、十分な固定が達成されていないと決定した場合、MRシステム212は、不十分な固定を示す仮想マーカ(例えば、X)を表示し得る。
[0218]外科医は、コンパクタ2038(例えば、最終コンパクタ)をハンドル2040から外すことができる。次いで、外科医は、1つ又は複数の表面準備ステップを実行し得る。
[0219]上に示されるように、外科手術の特定のステップは、外科医がインプラント又はインプラントツールを骨の中に挿入することを含み得る。一例として、外科医は、図25及び図26を参照して上述したように、スターターオウル2028などのスターターオウルを挿入し得る。別の例として、外科医は、図27を参照して上述したように、サウンダ2032などの1つ又は複数のサウンダを挿入し得る。別の例として、外科医は、図28を参照して上述したように、パンチ2036などのパンチを挿入し得る。別の例として、外科医は、図29を参照して上述したように、コンパクタ2038などのコンパクタを挿入し得る。別の例として、外科医は、図30を参照して上述したように、プロテーゼ2042などのインプラント部品(例えば、肩関節置換のための解剖学的又はリバース型上腕骨インプラントなどの上腕骨インプラント用のステム)を挿入し得る。本開示によると、図2のMRシステム212などのシステムは、インプラント又はインプラントツールと骨の壁(例えば、皮質壁)との間の距離に関する情報を外科医に提供するために、仮想追跡を利用し得る。
[0220]図31は、本開示の1つ又は複数の技法による、インプラント又はインプラントツールと骨との間の空間的関係を監視するための例となるプロセスを例示するフローチャートである。説明のために、図31のプロセスは、図2のMRシステム212によって実行されるものとして説明される。しかしながら、図31のプロセスは、そのように限定されず、他のシステム又はデバイスによって実行され得る。
[0221]MRシステム212は、インプラント又はインプラントツールの仮想モデルを取得し得る(3000)。例えば、MRシステム212は、インプラント又はインプラントツールの表面(例えば、スターターオウル2028、サウンダ2032、パンチ2036、コンパクタ2038、及び/又はプロテーゼ2042の外面)の少なくとも一部を表す3Dモデル(例えば、点群又はメッシュ)を取得し得る。1つの特定の例として、MRシステム212の処理デバイス210(複数可)は、メモリ215に記憶された仮想手術計画から、インプラント又はインプラントツールの外面を表す点群又はメッシュを取得し得る。
[0222]MRシステム212は、骨の仮想モデルを取得し得る(3002)。例えば、MRシステム212は、骨の壁の少なくとも一部を表す3Dモデル(例えば、点群又はメッシュ)を取得し得る。例えば、MRシステム212は、メモリ215に記憶された仮想手術計画から、骨の1つ又は複数の壁を表す3Dモデルを取得し得る。例えば、MRシステム212は、上腕骨1800の少なくとも一部の内壁を表す第1の点群又はメッシュと、上腕骨1800の少なくとも一部の外壁を表す第2の点群又はメッシュとを取得し得る。
[0223]MRシステム212は、骨の仮想モデルを対応する観察された骨に位置合わせし得る(3004)。例えば、MRシステム212は、図20A~図31を参照して上述した位置合わせ技法を使用して、上腕骨1800の仮想モデルを上腕骨1800の対応する観察部分に位置合わせし得る。上述したように、上腕骨1800の仮想モデルを上腕骨1800の対応する観察部分に位置合わせすることは、マーカを使用してもよいし、マーカレスであってもよい。位置合わせが1つ又は複数のマーカを使用する場合、マーカは、任意の好適な位置で上腕骨1800に取り付けられ得る。一例として、図16の例に示されるように、マーカ1601は、上腕骨に取り付けられ得る。位置合わせの結果、MRシステム212は、(例えば、上で説明したようにSLAMを使用して)観察された骨の位置の変化を骨の仮想モデルにマッピングすることができる。
[0224]MRシステム212は、インプラント又はインプラントツールの仮想モデルを、対応する観察されたインプラント又はインプラントツールに位置合わせし得る(3006)。例えば、MRシステム212は、図20A~図31を参照して上述した位置合わせ技法を使用して、プロテーゼ2042の仮想モデルをプロテーゼ2042の対応する観察部分に位置合わせし得る。上述したように、プロテーゼ2042の仮想モデルをプロテーゼ2042の対応する観察部分に位置合わせすることは、マーカを使用してもよいし、マーカレスであってもよい。位置合わせに1つ又は複数のマーカが使用される場合、マーカは、任意の好適な位置において、プロテーゼ2042、及び/又はプロテーゼ2042を挿入するために使用されるハンドル(例えば、図30のハンドル2040)に取り付けられ得る。位置合わせの結果、MRシステム212は、(例えば、上で説明したようにSLAMを使用して)観察されたインプラント又はインプラントツールの位置の変化をインプラント又はインプラントツールの仮想モデルにマッピングすることができる。
[0225]MRシステム212は、位置合わせされた仮想モデルに基づいて、インプラント又はインプラントツールと骨の壁との間の距離を推定し得る(3008)。例えば、MRシステム212は、インプラント又はインプラントツールの仮想モデル上の点と骨の仮想モデルとの間の距離を決定し得る。距離推定に関する更なる詳細については、図32A~図32Eを参照して以下で説明する。
[0226]MRシステム212は、推定距離の表現を出力し得る(3010)。一例として、MRシステム212は、推定距離(例えば、インプラント又はインプラントツールの仮想モデル上の点と骨の仮想モデル上の点との間の距離のいずれか)が閾値距離未満である場合にアラートを出力し得る。別の例として、MRシステム212は、インプラントと骨の壁との間の1つの推定距離(又は複数の推定距離)を連続的に出力し得る。インプラントと骨の壁との間の距離は、インプラントが骨の壁と接触するまでにどれだけの空間が存在するかを示す残りの距離であり得る。MRシステム212はまた、インプラントが皮質骨の壁に最も近くにある場所についての1つ又は複数の位置及び距離の指示、インプラントが骨の壁から閾値量未満の距離にある1つ又は複数の位置及び距離の指示、インプラントと皮質骨の壁との間の平均距離の指示、又は他のそのような指示などの情報をユーザに提示し得る。
[0227]MRシステム212は、任意のタイプの出力モダリティを使用して、前述の表現、アラート、又は通知のいずれかを出力し得る。例となる出力モダリティには、触覚、オーディオ、グラフィック、テキスト、又は外科医が知覚可能な任意の他の指示が含まれるが、必ずしもこれらに限定されない。一例として、MRシステム212は、推定距離が閾値距離未満であると決定したことに応答して、図4の視覚化デバイス213の知覚デバイス526のスピーカにトーンを発せさせ得る。別の例として、MRシステム212は、推定距離が閾値距離未満であると決定したことに応答して、知覚デバイス526のうちの1つ又は複数を振動させ得る。別の例として、MRシステム212は、視覚化デバイス213に、インプラントと骨の壁との相対位置のグラフィック表現を表示させ得る。別の例として、MRシステム212は、視覚化デバイス213に、インプラントと骨の壁との間の現在の距離を示すテキストを表示させ得る。
[0228]上述したように、いくつかの例では、MRシステム212は、視覚化デバイス213に、インプラントと骨の壁との相対位置のグラフィック表現を表示させ得る。例えば、MRシステム212は、視覚化デバイスに、インプラントの仮想モデル及び骨の仮想モデルを表示させ得る。このように、いくつかの例では、外科医は、インプラントと骨との相対位置を見るために、自身の視点を変更する(例えば、自身の頭部を動かす)ことができる。
[0229]図32A~図32Eは、本開示の1つ又は複数の技法による、骨及びインプラントの例となる仮想モデルを例示する概念図である。図32A~図32Eの各々は、骨仮想モデル3200及びインプラントツール仮想モデル3204を含む。図32A~図32Eの例に示されるように、骨仮想モデル3200は、上腕骨2000の少なくとも一部に対応し得、インプラントツール仮想モデル3204は、コンパクタ2038の少なくとも一部に対応し得る。しかしながら、他の例では、骨仮想モデル3200は、他の骨に対応し得、インプラントツール仮想モデル3204は、他のインプラントツール又はインプラントに対応し得る。一例として、インプラントツール仮想モデル3204は、プロテーゼ2042の少なくとも一部に対応し得る。
[0230]いくつかの例では、インプラントツール仮想モデル3204が、使用中に骨から少なくとも部分的に突出することとなるオブジェクトに対応することが望ましいであろう。例えば、インプラントツール仮想モデル3204が、使用中に骨から部分的に突出しないオブジェクトに対応する場合、MRシステム212などのMRシステムがインプラントツール仮想モデル3204の位置合わせを維持することは困難であり得る(例えば、視覚的位置合わせが使用される場合)。本開示の1つ又は複数の技法によれば、インプラントツール仮想モデル3204は、使用中に骨から突出しないインプラント又はインプラントツールの部分と、使用中に骨から突出するインプラント又はインプラントツールの部分との両方に対応し得る。例えば、インプラントツール仮想モデル3204は、インプラント又はインプラントツールの一部、及びインプラント又はインプラントツールを挿入するために使用されるハンドルに対応し得る。一例として、インプラントツール仮想モデル3204は、コンパクタ2038の少なくとも一部及びハンドル2040に対応し得る。別の例として、インプラントツール仮想モデル3204は、プロテーゼ2042の少なくとも一部に対応し得る。別の例として、インプラントツール仮想モデル3204は、プロテーゼ2042の少なくとも一部及びハンドル2040に対応し得る。
[0231]インプラント又はインプラントツールを挿入するために使用されるハンドルの位置及び向きは、インプラント又はインプラントツールの位置及び向きに固定され得るため、MRシステム212は、少なくともハンドルの一部を追跡することによって、インプラント又はインプラントツールの位置を追跡することが可能であり得る。例えば、MRシステム212は、ハンドル2040の一部に対応するインプラントツール仮想モデル3204の一部を追跡することによって、プロテーゼ2042の一部に対応するインプラントツール仮想モデル3204の一部の位置を決定し得る。
[0232]骨仮想モデル3200及びインプラントツール仮想モデル3204の各々は、複数の点を含み得る。図32A~図32Eの例では、骨仮想モデル3200は、点3202A~3202S(集合的に「点3202」)を含み、インプラントツール仮想モデル3204は、点3206A~3206R(集合的に「点3206」)を含む。点3202は、上腕骨2000の内側又は外側皮質壁などの骨の壁を表し得る。点3202を含む仮想モデル3200は、患者の画像(例えば、CT画像、MRI画像など)(例えば、図3の術前段階302中にキャプチャされた画像)に基づいて取得され得る。仮想モデル3200は、外科医がインプラントツール仮想モデル3204に対応するインプラント又はインプラントツールを使用するより前に存在することとなる(例えば、存在するように計画されている)のような骨の壁を表し得る。例えば、図32A~図32Eの例では、仮想モデル3200は、上腕骨頭が上腕骨2000から除去された後、(例えば、図25及び図26を参照して上で説明したように)スターターオウル2028を使用して上腕骨2000に穴を形成した後、(例えば、図27を参照して上で説明したように)1つ又は複数のサウンダ2032を使用して上腕骨2000をサウンディングした後、及び(例えば、図28を参照して上で説明したように)パンチ2036を使用して上腕骨2000を穿孔した後、又はそれらの任意の組合の後の上腕骨2000の壁を表し得る。
[0233]点3206は、コンパクタ2038の外面などの、インプラント又はインプラントツールの外面を表し得る。点3206を含む仮想モデル3204は、インプラント又はインプラントツールの製造業者から(例えば、インプラント又はインプラントツールのCADモデル又は他の仮想表現から)取得され得る。図32A~図32Eの例では19個の点を有するものとして例示されているが、骨仮想モデル503は、追加の又はより少ない点を含み得る。例えば、骨仮想モデル3200は、骨の壁を表す数百、数千、数百万の点を含み得る。同様に、仮想モデル3204は、ツールの外面を表す数百、数千、数百万の点を含み得る。
[0234]上述したように、MRシステム212などのシステムは、仮想モデルを位置合わせし、位置合わせされたモデルを使用して、インプラント又はインプラントツールと、例えば、上腕骨の皮質骨の内壁などの骨の壁との間の距離を決定し得る。例えば、MRシステム212は、骨仮想モデル3200を上腕骨2000に位置合わせし(例えば、図31のステップ3004)、インプラントツール仮想モデル3204をコンパクタ2038及び/又はハンドル2040に位置合わせし(例えば、図31のステップ3006)、位置合わせされた仮想モデルを使用して、コンパクタ2038と上腕骨2000の壁との間の距離を推定し得る。
[0235]MRシステム212は、対応する観察された構造が移動されるにつれて、位置合わせされた仮想モデルを追跡し続け得る。例えば、図32A~図32Eの例に示されるように、MRシステム212は、コンパクタ2038がハンドル2040を使用して上腕骨2000内に挿入されるとき、骨仮想モデル3200の位置に対するインプラントツール仮想モデル3204の位置を追跡し得る。MRシステム212は、挿入段階の任意の組合せで相対位置を追跡し得る。一例として、図32Aの例に示されるように、MRシステム212は、挿入前、骨仮想モデル3200とインプラントツール仮想モデル3204との相対位置(ひいてはコンパクタ2038と上腕骨2000との相対位置)を追跡し得る。別の例として、図32B~図32Dの例に示されるように、MRシステム212は、コンパクタ2038が上腕骨2000に挿入されるとき、骨仮想モデル3200とインプラントツール仮想モデル3204との相対位置(ひいてはコンパクタ2038と上腕骨2000との相対位置)を追跡し得る。別の例として、図32Eの例に示されるように、MRシステム212は、コンパクタ2038が上腕骨2000内に完全に挿入されるとき、骨仮想モデル3200とインプラントツール仮想モデル3204との相対位置(ひいてはコンパクタ2038と上腕骨2000との相対位置)を追跡し得る。
[0236]いくつかの例では、MRシステム212は、インプラント仮想モデル上の点と骨仮想モデル上の点とのそれぞれの対の間の距離を決定することによって距離を推定し得る。一例として、MRシステム212は、インプラントツール仮想モデル3204上の点3206Lと骨仮想モデル3200上の点3202Nとの間の距離としてDLNを決定し得る。別の例として、MRシステム212は、インプラントツール仮想モデル3204上の点3206Lと骨仮想モデル3200上の点3202Mとの間の距離としてDLMを決定し得る。
[0237]いくつかの例では、MRシステム212は、インプラントツール仮想モデル3204上の全ての点と骨仮想モデル3200上の全ての点との間の距離を決定し得る。例えば、MRシステム212は、インプラントツールの表面に対応する全ての点と骨の壁に対応する全ての点との間の距離を決定し得る。
[0238]いくつかの例では、MRシステム212は、インプラントツール仮想モデル3204上の点のサブセットと骨仮想モデル3200の点のサブセットとの間の距離を決定し得る。一例として、MRシステム212は、インプラントツールの表面上の点のサブセット(例えば、インプラントツールの最遠位部分、又は骨内に最初に導入されるインプラントツールの部分)と、骨上の点のサブセット(例えば、インプラントツールが導入される点に最も近い骨の部分)との間の距離を決定し得る。別の例として、MRシステム212は、インプラントツールの表面上の点のサブセット(例えば、インプラントツールの最遠位部分、又は骨内に最初に導入されるインプラントツールの部分)と骨上の全ての点との間の距離を決定し得る。
[0239]いくつかの例では、MRシステム212は、インプラントツール仮想モデル3204上の点と骨仮想モデル3200上の点のサブセットとの間の距離を決定し得る。一例として、MRシステム212は、インプラントツールの表面上の全ての点と骨上の点のサブセット(例えば、インプラントツールが導入される点に最も近い骨の部分)との間の距離を決定し得る。
[0240]MRシステム212は、任意の好適な技法を使用して2点間の距離を決定し得る。例えば、MRシステム212は、以下の式に従って距離DKMを決定し得、ここで、3206K、3206K、及び3206Kは点3206Kのx、y、z座標に対応し、3202M、3202M、及び3202Mは点3202Mのx、y、z座標に対応する:
[0241]MRシステム212は、決定された距離から最小値を決定し得る。例えば、MRシステム212が、距離DLNを9mm、DLMを12mm、DKNを12mm、DKMを4mm、及びDKNを12mmと決定する場合、MRシステム212は、DKMが最小距離(すなわち、インプラントツールと骨壁との間)であると決定し得る。
[0242]MRシステム212は、決定された最小距離を使用して、様々なエラーの指示を選択的に提供し得る。例えば、上述したように、決定された最小距離が閾値距離(例えば、2mm、3mm、4mm、5mm)未満である場合、MRシステム212は、外科医に警告を出力し得る。
[0243]MRシステム212は、任意の出力モダリティを使用して警告を出力し得る。例となる出力モダリティには、触覚、オーディオ、グラフィック、テキスト、又は外科医が知覚可能な任意の他の指示が含まれるが、必ずしもこれらに限定されない。一例として、MRシステム212は、決定された最小距離が閾値距離未満であると決定したことに応答して、図4の視覚化デバイス213の知覚デバイス526のスピーカにトーンを発せさせ得る。別の例として、MRシステム212は、決定された最小距離が閾値距離未満であると決定したことに応答して、知覚デバイス526のうちの1つ又は複数を振動させ得る。別の例として、MRシステム212は、決定された最小距離が閾値距離未満であると決定したことに応答して、視覚化デバイス213にグラフィック警告(例えば、「X」、インプラント又は骨仮想モデルの一方又は両方の色付き強調表示など)を表示させ得る。別の例として、MRシステム212は、決定された最小距離が閾値距離未満であると決定したことに応答して、視覚化デバイス213にテキスト(例えば、「警告」、「皮質接触切迫(Cortical Contact Imminent)」など)を表示させ得る。
[0244]図33は、場合によっては本開示で説明される他のデバイスと共に、インプラント部品に関する埋植の深さ及び/又は骨とインプラント部品との間の距離を決定するように構成され得るデバイス3300の例を示す。図33の例では、デバイス3300は、第1のセンサ3302と、第2のセンサ3304と、処理回路3306と、送信機3308と、メモリ3310とを含む。第1のセンサ3302及び第2のセンサ3304は、互いに近接して位置しており、一般に、ほぼ同じ方向を感知するように構成されている。従って、第1のセンサ3302及び第2のセンサ3304が感知する方向は、ほぼ平行であるか又はわずかに収束している。
[0245]デバイス3300は、術中ガイダンスシステム108の構成要素であると見なされ得るか、又は術中ガイダンスシステム108とは別個であるが術中ガイダンスシステム108と通信する構成要素であると見なされ得る。いくつかの実装形態では、デバイス3300は、聴覚フィードバック、視覚フィードバック、又は触覚フィードバックのうちの1つ又は組合せを通してユーザに情報を提示することが可能なスタンドアロンデバイスであり得る。
[0246]デバイス3300は、いくつかの形態のいずれか1つをとり得る。デバイス3300は、例えば、患者の腕若しくは脚の周りに巻き付くストラップ若しくはバンドの一部であり得るか、又は手術を受けている腕若しくは脚を患者が挿入するカフ若しくはスリーブであり得る。他の実装形態では、デバイス3300は、デバイスユーザが患者の身体の一部を横断して移動させるワンド状若しくはプローブ状のデバイスであり得るか、又はデバイスユーザが患者の腕若しくは脚を軸として回転させる、板状の、例えば実質的に平面の、表面であり得る。
[0247]動作中、第1のセンサ3302は、第1のセンサと患者内の外側の骨壁との間の距離を示す第1の値を処理回路3306に出力するように構成されている。骨壁は、例えば、皮質骨であり得る。上腕骨インプラントの例では、骨壁は、インプラント部品が埋植される上腕骨管の周りの皮質骨壁であり得る。第1のセンサ3302は、例えば、音波を(例えば、離散バーストとして)放出し、外側の骨壁からの音波の反射を受信する、超音波センサ(ultrasonic sensor)又は超音波センサ(ultrasound sensor)であり得る。第1のセンサ3302又は処理回路3306は、超音波センサが音波を放出する時間と超音波センサが音波の反射を受信する時間との間の差に基づいて第1の値を決定し得る。従って、センサ3302の出力は、ソノマイクロメトリ(sonomicrometry)又は何らかの他の技法を使用して距離が決定され得る1つの時間値又は複数の時間値であり得る。
[0248]センサ3304は、患者内の埋込型部品までの距離を示す第2の値を処理回路3306に出力するように構成され得る。埋込型部品は、例えば、金属製であり得、センサ3304は、金属を検出するように構成され得る。第2のセンサは、例えば、ホール効果センサなどの磁気センサであり得、第2の値は電圧値であり得る。センサ3304は、例えば、磁場を放出し、磁場の放出に応答して磁気センサに誘起される電圧変化を検出するように構成され得る。埋込型部品の金属は、磁場の変化を引き起こすことができ、センサ3304に誘起される電圧変化は、インプラント部品の金属までの距離に相関することができる。いくつかの事例では、センサ3304によって出力される値は、センサの位置において、例えば、肩関節形成処置の場合、患者の腕に沿って、インプラント部品が検出されないことを示し得る。この文脈において、位置とは、骨の長手方向軸に沿った位置を指す。上腕骨の場合、その軸は、上腕骨の骨頭から上腕骨の滑車まで、又はより一般的には、肩関節から肘関節まで延びる。
[0249]処理回路3306は、第1の値及び第2の値を処理し、送信機3308は、第1の値及び第2の値に基づいて出力を送信する。いくつかの例では、処理回路3306は、センサ3302の出力値を、センサ3302と患者内の外側の骨壁との間の距離を表す第1の距離値に変換する。例えば、センサ3302の出力が時間値である場合、処理回路3306は、ヒト組織内の音速についての既知の値に基づいて、時間値を第1の距離値に変換することができる。処理回路3306はまた、センサ3304の出力値を、センサ3304と患者の中の埋込型部品との間の距離を表す第2の距離値に変換することができる。第2の距離値から第1の距離値を差し引くことによって、処理回路3306は、骨の外壁と骨の中に埋め込まれているインプラント部品の外壁との間の距離を決定することができる。骨の外壁とインプラント部品の外壁との間の距離から骨の厚さを差し引くことによって、処理回路3306は、骨の内壁と骨の中に埋め込まれているインプラント部品の外壁との間の距離を決定することができる。骨の厚さは、既知の厚さ又は推定された骨の厚さであり得る。
[0250]次いで、送信機3308は、決定された距離(複数可)を、術中ガイダンスシステム108などの別のシステムに送信し得る。インプラント部品が検出されないことを第2の値が示す場合、送信機3308は、決定された距離の代わりにその情報を送信し得る。他の例では、送信機3308は、第1の値及び第2の値を術中ガイダンスシステム108に送信し、術中ガイダンスシステム108は、センサ3302の出力値を第1の距離値に変換し、同様に、センサ3304の出力値を第2の距離値に変換する。次いで、術中ガイダンスシステム108は、第2の距離値から第1の距離値を差し引いて、骨の外壁と骨の中に埋め込まれているインプラント部品の外壁との間の距離を決定することができる。また、インプラント部品が検出されないことを第2の値が示す場合、術中ガイダンスシステム108は、インプラント部品が存在しないという決定を行うことができる。
[0251]図34は、骨壁の外径とインプラント部品の外径との間の距離を測定するために使用されているデバイス3300の例を示す。図34は、軟組織3402、上腕骨皮質骨3404、及びインプラント部品3406を有する腕3400の例を示す。図34の例では、インプラント部品3406は、ステム付き上腕骨インプラントのステムとして示されており、これは、例えば、関節窩インプラントと係合するための上腕骨ボールも含み得る。しかしながら、本開示の技法は、任意の特定のタイプのインプラント部品に限定されない。デバイス3300は、センサ3302及び3304が上腕骨3404及びインプラント部品3406に向いた状態で、腕3400の外面に接して配置される。
[0252]上で説明したように、デバイス3300の第1のセンサ3302は、皮質骨3404の外壁までの距離を示す第1の値を処理回路3306に出力するように構成されている。腕3400内の皮質骨3404の外壁までの距離は、図34において距離LBとして示されている。センサ3304は、インプラント部品3406の外壁までの距離を示す第2の値を処理回路3306に出力するように構成されている。インプラント部品3406の外壁までの距離は、図34において距離LIとして示される。
[0253]デバイス3300は、第1の値及び第2の値を術中ガイダンスシステム108に送信する。第1の値が、第1のセンサ3302による音波の放出と音波の受信との間の時間差を示す場合、術中ガイダンスシステム108は、軟組織3402を通る音速に基づいて、時間差値を距離値LBに変換することができる。他の実装形態では、処理回路3306及び/又はセンサ3302などのデバイス3300の構成要素は、距離値LBを決定し得、その場合、デバイス3300から術中ガイダンスシステム108に送信される第1の値は、距離LBの指示であり得る。デバイス3300から術中ガイダンスシステム108に送信される第1の値は、距離LBを直接示す値又は距離LBを導出することができる任意の値であり得る。
[0254]第2の値が電圧レベルを示す場合、術中ガイダンスシステム108は、センサ3304の既知のパラメータに基づいて電圧レベルを距離値LIに変換することができる。他の実装形態では、処理回路3306及び/又はセンサ3304などのデバイス3300の構成要素は、距離値LIを決定し得、この場合、デバイス3300から術中ガイダンスシステム108に送信される第2の値は、距離LIの指示であり得る。デバイス3300から術中ガイダンスシステム108に送信される第2の値は、距離LIを直接示す値又は距離LIを導出することができる任意の値であり得る。
[0255]術中ガイダンスシステム108は、皮質骨3404の外壁とインプラント部品3406の外壁との間の距離を決定することができる。皮質骨3404の外壁とインプラント部品3406の外壁との間の距離は、図34において距離Xとして示される。術中ガイダンスシステム108は、距離LIから距離LBを差し引くことによって距離Xの値を決定することができる。他の実装形態では、デバイス3300は、距離LIから距離LBを差し引くことによって距離Xの値を決定し、距離Xの値を術中ガイダンスシステム108に送信し得る。
[0256]センサ3302及びセンサ3304は、自動又は手動のいずれかで、肢を上下に及び/又は肢の円周上を移動するように又は移動されるように構成され得る。センサ3302及び3304を移動させることによって、デバイス3300は、肢に沿って複数の点において距離Xの値を決定し得る。デバイス3300はまた、センサ3304がインプラント部品3406の存在を検出することができる肢沿いの最後の軸方向位置と、センサ3304がインプラント部品3406の存在を検出することができない肢沿いの最初の軸方向位置とを決定することによって、インプラント部品3406のインプラント深さを決定するように構成され得る。軸方向位置は、例えば、腕にほぼ対応する軸に沿って肩の近位又は肩部の遠位にあると表され得る。
[0257]デバイス3300及び術中ガイダンスシステム108の一方又は両方はまた、骨の外壁とインプラント部品の外壁との間の決定された距離(すなわち、距離X)から、皮質骨の厚さについての推定された値を差し引くことによって、インプラント部品の外壁と皮質骨の内壁との間の予測又は推定距離を決定するように構成され得る。いくつかの事例では、皮質骨の厚さは、本開示の他の箇所で開示されるように、患者の術前撮像及び/又は予測モデリングから決定され得る。他の事例では、皮質骨の厚さは、性別、年齢、身長などの特定の人口統計学的特性を有する患者についての既知の平均に基づいて決定され得る。
[0258]肢に沿った複数の軸方向位置における距離Xの複数の値を用いて、デバイス3300はまた、インプラント部品と骨3404の内側皮質壁との間の最初の接触点を予測するか、又は骨折する確率が最も高い可能性のある内側皮質壁の領域を予測するように構成され得る。デバイス3300は、例えば、本開示の他の箇所で説明される技法を使用して決定される骨のモデルと、設置されるインプラント部品の3Dモデルなどのモデルとに基づいて、そのような予測を行い得る。設置されるインプラント部品のモデルは、デバイス3300によって記憶されるか又は取得可能であり得、インプラント部品の寸法及び形状などの情報を含み得る。
[0259]従って、肢に沿った複数の点における距離Xの複数の値を用いて、デバイス3300は、インプラント部品3406の現在の位置を決定することができる。肢に沿った複数の点における距離Xの複数の値を使用して、デバイス3300はまた、インプラント部品3406の向きを決定することができる。向きとは、例えば、インプラント部品3406の先端が骨3404の内側又は外側に向かって移動している速度(rate)であり得る。従って、インプラント部品3406の位置及び向きに基づいて、並びに骨のモデル及び骨に設置されているインプラント部品のモデルに基づいて、デバイス3300は、インプラント部品と骨3404の内側皮質壁との間の最初の接触点又は骨折する確率が最も高い可能性のある内側皮質壁の領域を予測することができる。
[0260]一般的に言えば、センサ3302及び3304の出力を距離値LB及びLIに変換し、距離LB及びLIに基づいて距離Xを決定するための上で説明したステップは、デバイス3300(例えば、処理回路3306並びにセンサ3302及び3304)及び術中ガイダンスシステム108にわたって任意の方法で分散され得る。従って、特定の機能は、デバイス3300又は術中ガイダンスシステム108によって実行されるものとして上で説明されているが、別途明記されない限り、それらの機能は、デバイス3300又は術中ガイダンスシステム108の他方によっても実行され得ると想定されるべきである。
[0261]本開示の他の箇所でより詳細に説明されるように、距離Xが閾値未満である場合、又は、例えば、推定された骨壁の厚さをXから引いた差によって決定されるような、インプラント部品3406の外壁と皮質骨3404の内壁との間の距離が閾値未満である場合、術中ガイダンスシステム108は、インプラント部品3406が皮質骨3404の外壁に近づいているというアラートを外科チームに提供するように構成され得、これは、皮質骨3404が骨折の危険にさらされていることを示し得る。術中ガイダンスシステム108はまた、アラートに加えて又はその代わりに、インプラント部品と皮質骨の外壁又は代替的に内壁との間の距離を外科チームに連続的に提供するように構成され得る。インプラント部品と皮質骨の外壁又は内壁との間の距離は、インプラント部品が皮質骨の外壁又は代替的に内壁と接触するまでにどれだけの空間が存在するかを示す残りの距離であり得る。
[0262]デバイス3500及び術中ガイダンスシステム108が複数の位置において距離Xの値を検出する場合、術中ガイダンスシステム108はまた、インプラント部品が皮質骨の内壁に最も近くにある場所に関する1つ又は複数の位置及び距離の指示、インプラント部品が皮質骨の内壁又は外壁から閾値量未満の距離にある場所に関する1つ又は複数の位置及び距離の指示、インプラント部品と皮質骨の内壁又は外壁との間の平均距離の指示、又は他のそのような指示などの情報をユーザに提示し得る。本開示の他の箇所でより詳細に説明されるように、術中ガイダンスシステム108によって出力される様々なアラート及び他の情報は、いくつかの事例では、デバイス3300によっても出力され得る。
[0263]図35は、本開示の技法による、インプラント部品位置決めデバイスの別の例であるデバイス3500を示す。デバイス3500は、場合によっては本開示で説明される他のデバイスと共に、インプラント部品に関する埋植の深さ及び/又は骨とインプラント部品との間の距離を決定するように構成され得る。デバイス3500は、センサ3502と、処理回路3504と、送信機3506と、メモリ3508とを含む。
[0264]デバイス3500は、術中ガイダンスシステム108の構成要素であると見なされ得るか、又は術中ガイダンスシステム108とは別個であるが術中ガイダンスシステム108と通信する構成要素であると見なされ得る。いくつかの実装形態では、デバイス3500は、聴覚フィードバック、視覚フィードバック、又は触覚フィードバックのうちの1つ又は組合せを通してユーザに情報を提示することが可能なスタンドアロンデバイスであり得る。デバイス3500は、いくつかの形態のいずれか1つをとり得る。デバイス3500は、例えば、患者の腕若しくは脚の周りに巻き付くストラップ若しくはバンドの一部であり得るか、又は外科医、看護師、若しくは技術者が、手術を受けている患者の腕又は脚を挿入するカフ若しくはスリーブであり得る。他の実装形態では、デバイス3300は、デバイスユーザが患者の身体の一部を横断して移動させるワンド状若しくはプローブ状のデバイスであり得るか、又はデバイスユーザが患者の腕若しくは脚を軸として回転させる、平面状の、例えば、板状の、表面であり得る。
[0265]センサ3502は、図35においてセンサ群1~センサ群Nとして示される複数のセンサ群を含む。センサ3502内の各センサ群は、少なくとも2つのセンサを含む。2つのセンサは、患者内の外側の骨壁までの距離を示す第1の値を処理回路3504に出力するように構成された第1のセンサを含む。センサ群内の第1のセンサは、例えば、音波を放出し、この音波の反射を受信する超音波センサであり得る。第1のセンサ又は処理回路3504は、超音波センサが音波を放出する時間と超音波センサが音波の反射を受信する時間との差に基づいて第1の値を決定し得る。従って、各センサ群の第1のセンサの出力は、1つの時間値又は複数の時間値であり得る。この点に関して、センサ群1~センサ群Nの各センサは、上で説明されたセンサ3302として機能する少なくとも1つのセンサを含む。
[0266]センサ群の第2のセンサは、患者内の埋め込まれたインプラント部品までの距離を示す第2の値を出力するように構成され得る。処理回路3504に
センサ群の第2のセンサは、例えば、ホール効果センサなどの磁気センサであり得、第2の値は、電圧値であり得る。この点に関して、センサ群1~センサ群Nの各センサは、上で説明されたセンサ3304として機能する少なくとも1つのセンサを含む。各センサ群内の第1のセンサ及び第2のセンサは、互いに近接して位置しており、一般に、ほぼ同じ方向を感知するように構成されていることが企図される。従って、各センサ群内の第1のセンサ及び第2のセンサが感知する方向は、ほぼ平行であるか又はわずかに収束している。
[0267]センサ3502の各感知グループについて、処理回路3504は、第1の値及び第2の値を処理し、送信機3506は、第1の値及び第2の値に基づいて出力を送信する。いくつかの例では、処理回路3504は、センサ群の第1のセンサの出力値を、第1のセンサから患者の中の骨壁までの距離を表す第1の距離値に変換する。例えば、第1のセンサの出力が時間値である場合、処理回路3504は、ヒト組織内の音速についての既知の値に基づいて、時間値を第1の距離値に変換することができる。処理回路3504はまた、第2のセンサの出力値を、第2のセンサから患者の中のインプラント部品までの距離を表す第2の距離値に変換することができる。一例では、第2の距離値から第1の距離値を差し引くことによって、処理回路3504は、骨の外壁と骨の中に埋め込まれているインプラント部品の外壁との間の距離を決定することができる。別の例では、皮質壁の推定される厚さを更に差し引くことによって、処理回路3504は、代替的又は追加的に、皮質骨の内壁と骨の中に埋め込まれているインプラント部品の外壁との間の距離を決定し得る。次いで、送信機3506は、決定された距離を、術中ガイダンスシステム108などの別のシステムに送信し得る。
[0268]他の例では、送信機3506は、第1の値及び第2の値を術中ガイダンスシステム108に送信し、術中ガイダンスシステム108は、第1のセンサの出力値を第1の距離値に変換し、同様に、第2のセンサの出力値を第2の距離値に変換する。次いで、術中ガイダンスシステム108は、第2の距離値から第1の距離値を差し引いて、骨の外壁と骨の中に埋め込まれているインプラント部品の外壁との間の距離を決定することができる。皮質壁の推定された厚さを更に差し引くことによって、術中ガイダンスシステム108は、代替的又は追加的に、皮質骨の内壁と骨の中に埋め込まれているインプラント部品の外壁との間の距離を決定し得る。
[0269]センサ3502の各センサ群について、処理回路3504は、上で説明した方法で、骨の外壁又は内壁と骨の中に埋め込まれているインプラント部品の外壁との間の距離を決定するか、又は術中ガイダンスシステム108に値を送信して、術中ガイダンスシステム108が、骨の内壁又は外壁と骨に埋め込まれているインプラント部品の外壁との間の距離を決定することができるようにすることができる。
[0270]図36は、骨3604に沿った複数の点について、骨壁の外径とインプラント部品の外径との間の距離を測定するために使用されているデバイス3500の例を示す。図36は、軟組織3602、上腕骨皮質骨3604、及びインプラント部品3606を有する腕3600の例を示す。デバイス3500は、センサ群1~Nのセンサが上腕骨3604及びインプラント部品3606に向いた状態で、腕3600の外面に接して配置される。図36の例では、LB及びLIは、センサ群1によって取得された値を使用して決定された距離を表し、LB及びLIは、センサ群2によって取得された値を使用して決定された距離を表し、以下同様である。
[0271]上で説明したように、各センサ群について、第1のセンサは、皮質骨3404の外壁までの距離を示す第1の値を処理回路3504に出力するように構成されている。腕3600内の皮質骨3604の外壁までのこれらの距離は、図36において距離LB、LB、及びLBとして示される。各センサ群について、第2のセンサは、インプラント部品3606の外壁までの距離を示す第2の値を処理回路3504に出力するように構成されている。インプラント部品3606の外壁までのこれらの距離は、図36において距離LI、LI、及びLIとして示される。
[0272]各センサ群について、デバイス3300は、第1の値及び第2の値を術中ガイダンスシステム108に送信し、術中ガイダンスシステム108は、軟組織3602を通る音速に基づいて、第1の値を距離値(例えば、距離LB、LB、...LB)に変換する。他の実装形態では、処理回路3504及び/又はセンサ3502などのデバイス3500の構成要素は、LB、LB、...LBについての距離値を決定し、次いで、それらの距離値を術中ガイダンスシステム108に送信し得る。従って、各センサ群について、デバイス3500は、距離LB、LB、...LBを直接示す値又は距離LB、LB、...LBを導出することができる値を術中ガイダンスシステム108に送信し得る。
[0273]術中ガイダンスシステム108は、センサ群3502内の第2のセンサの既知のパラメータに基づいて、第2の値を距離値(例えば、距離LI、LI...LI)に変換することができる。他の実装形態では、処理回路3504及び/又はセンサ3502などのデバイス3500の構成要素は、距離値LI、LI...LIを決定し、次いで、距離LIの指示であり得るそれらの距離値を術中ガイダンスシステム108に送信し得る。従って、各センサ群について、デバイス3500は、距離LI、LI...LIを直接示す値又は距離LI、LI...LIを導出することができる値を術中ガイダンスシステム108に送信し得る。
[0274]術中ガイダンスシステム108は、センサ群1~Nの各々について、皮質骨3604の外壁とインプラント部品3606の外壁との間の距離を決定することができる。各センサ群についての皮質骨3604の外壁とインプラント部品3606の外壁との間の距離は、LI-LB、LI-LB、...LI-LBに等しい。術中ガイダンスシステム108は、追加的又は代替的に、センサ群1~Nの各々について、皮質骨3604の内壁とインプラント部品3606の外壁との間の距離を決定することができる。各センサ群についての皮質骨3604の内壁とインプラント部品3606の外壁との間の距離は、LI-LB-BT、LI-LB-BT、...LI-LB-BTに等しく、ここで、BT、BTなどは、第1のセンサ及びセンサが外側の骨壁及びインプラント部品までの距離を決定している骨上の点における推定される骨の厚さを指す。
[0275]他の実装形態では、デバイス3300は、LI-LB、LI-LB、...LI-LBに対する値又はLI-LB-BT、LI-LB-BT、...LI-LB-BTに対する値を決定し、それらの値を術中ガイダンスシステム108に送信する。一般的に言えば、センサ群1~Nの各々について第1のセンサ及び第2のセンサの出力を距離値LB及びLIに変換し、距離値LB-LIを決定するための上で説明されたステップ、及び距離値LB-LIをLB-LI-BTに変換するためのステップは、デバイス3500(例えば、処理回路3504及びセンサ3502)及び術中ガイダンスシステム108にわたって任意の方法で分散され得る。従って、特定の機能は、デバイス3500又は術中ガイダンスシステム108によって実行されるものとして上で説明されているが、別途明記されない限り、それらの機能は、デバイス3500又は術中ガイダンスシステム108の他方によっても実行され得ると想定されるべきである。
[0276]デバイス3500は複数のセンサ群を有するため、デバイス3500は、術中ガイダンスシステム108と共に、肢に沿った複数の点において骨の内壁又は外壁とインプラント部品の外壁との間の距離を検出するように構成され得る。例えば、図36は、センサの1Dアレイを使用して、腕の長さに沿った異なる軸方向位置で読み取り値を取得するデバイス3500のセンサ群を示すが、センサ3502のセンサ群はまた、例えば、センサの2Dアレイを使用して、腕の円周上の異なる点において読み取り値を取得するように構成され得る。いくつかの実装形態では、例えば、デバイス3500は、肢上でほぼ同じ軸方向位置に方向付けされるが、腕又は腕の一部の周りの異なる周方向位置に位置決めされる、例えば、肢の円周上を45度、90度、又は180度離れて位置しているセンサ群を有し得る。いくつかの実装形態では、デバイス3500は、肢上でほぼ同じ軸方向位置に方向付けされ、肢の360度の円周を取り囲む3つ以上のセンサ群を有し得る。
[0277]デバイス3500及び術中ガイダンスシステム108のシステムはまた、センサ3502のセンサ群を使用してインプラント深さを決定するように構成され得る。例えば、図36は、インプラント部品3606からそれぞれ距離LI及びLIの距離にあるセンサ群1及び2を示す。しかしながら、センサ群Nは、インプラント部品3606が埋め込まれた深さよりも下の深さで(例えば、肩に対して遠位方向に更に遠くで)感知するように位置付け及び構成されている。従って、複数のセンサ群が肢に沿って異なる高さに配置されている場合、デバイス3500は、インプラント部品3606の存在を検出する最後のセンサ群及びインプラント部品3606の存在を検出しない最初のセンサ群に基づいて、インプラント部品3606のインプラント深さを決定することができる。骨3604に対するセンサ群1~N内の様々なセンサ群の位置を知ることによって、デバイス3500及び術中ガイダンスシステム108のシステムは、インプラント部品3606の深さを、インプラント部品3606の存在を検出する最後のセンサ群とインプラント部品3606の存在を検出しない最初のセンサ群との間であると決定することができる。従って、肩から肘への上腕骨の方向により多くのセンサ群を含めることにより、デバイス3500は、インプラント深さとも呼ばれる、インプラント部品3606の軸方向位置をより正確に決定することができる。
[0278]以下でより詳細に説明するように、距離(LI-LB)、(LI-LB)、...(LI-LB)又は(LI-LB-BT)、(LI-LB-BT)、...(LI-LB-BT)のいずれかが閾値未満である場合、術中ガイダンスシステム108は、インプラント部品3606が皮質骨3604の内壁又は外壁に近づいているというアラートを外科チームに提供するように構成され得、これは、皮質骨3604が骨折の危険にさらされていることを示し得る。更に、術中ガイダンスシステム108はまた、アラートに加えて又はその代わりに、複数の位置におけるインプラント部品と皮質骨の内壁又は外壁との間の距離を外科チームに連続的に提供するように構成され得る。インプラント部品と皮質骨の外壁との間の距離は、インプラント部品が皮質骨の外壁と接触するまでにどれだけの空間が存在するかを示す残りの距離であり得る。術中ガイダンスシステム108はまた、インプラント部品が皮質骨の内壁又は外壁に最も近くにある場所に関する1つ又は複数の位置及び距離の指示、インプラント部品が皮質骨の内壁から閾値量未満の距離にある場所に関する1つ又は複数の位置及び距離の指示、インプラント部品と皮質骨の内壁との間の平均距離の指示、又は他のそのような指示などの情報をユーザに提示し得る。本開示の他の箇所でより詳細に説明されるように、術中ガイダンスシステム108によって出力される様々なアラート及び他の情報は、いくつかの事例では、デバイス3500によっても出力され得る。
[0279]肢に沿った複数の点において骨の内壁又は外壁とインプラント部品の外壁との間の距離を決定することによって、デバイス3500はまた、インプラント部品と骨3404の内側皮質壁との間の最初の接触点を予測するか、又は骨折する確率が最も高い可能性のある内側皮質壁の領域を予測するように構成され得る。肢に沿った複数の点において骨の壁とインプラント部品との間の距離を使用して、デバイス3500は、上で説明したように、インプラント部品3606の向きを決定することができ、インプラント部品と骨3604の内側皮質壁との間の最初の接触点、又は骨折する確率が最も高い可能性のある内側皮質壁の領域を予測することができる。
[0280]図37は、場合によっては本開示で説明される他のデバイスと共に、骨とインプラント部品との間の距離を決定するように構成され得るデバイス3700の例を示す。デバイス3700はまた、インプラント部品のインプラント深さを決定するように構成され得る。デバイス3700は、患者の腕を取り囲むカフとして図37に示されている。
[0281]デバイス3700は、センサ群3702A~3702Fの列(以下、列3702A~3702Fと呼ばれる)を含み、ライト3704A及び3704Bの列も含む。センサ群3702A~3702Fの列は、集合的にセンサの2Dアレイを形成する。センサ群のより多くの又はより少ない列及びより多くの又はライトのより少ない列が使用され得る。図37には示されていないが、デバイス3700はまた、本明細書で説明される様々な機能を実装するための処理回路、メモリ、送信回路、及び他の回路を含み得る。列3702A~3702Fの各列は、図37においてSG1~SGNとして示されている複数のセンサ群を含む。
[0282]外科チームのメンバーは、図37に示されるように、デバイス3700を患者の肢、例えば腕に適用し得る。図37では、デバイスは、列3702A~3702Fの各々のセンサ群SG1が患者の肩に最も近いセンサ群となり、列3702A~3702Fの各々のセンサ群SGNが患者の肘に最も近いセンサ群となるようなデバイス3700の向きで患者に適用され得る。SG1センサ群は全て、患者の肩に対してほぼ同じ軸方向位置であり、SG2センサ群は全て、患者の肩に対してほぼ同じ高さであり、以下同様である。
[0283]患者に適用されるとき、列3702A~3702Fの各列のSG1は、肢の共通の円周上の異なる点において読み取り値を取得する。換言すると、列3702AのSG1、列3702BのSG1、列3702CのSG1などは、肢の共通の円周上の異なる点において読み取り値を取得する。共通の円周とは、一般に、全ての点がほぼ同じ高さにある円周を指し、高さは、例えば、肩から肘に向かって延びる軸上の位置として定義される。この軸は、典型的には、インプラント部品が設置されている骨に対して平行である。
[0284]列3702A~3702F内の各センサ群は、少なくとも2つのセンサを含む。第1のセンサは、第1のセンサと骨の外壁との間の距離を示す値を決定する。この点に関して、列3702A~3702F内のセンサ群の各センサは、上で説明したセンサ3302として機能する少なくとも1つのセンサを含む。センサ群の第2のセンサは、患者内の埋め込まれたインプラント部品までの距離を示す第2の値を出力するように構成され得る。この点に関して、列3702A~3702F内のセンサ群の各センサは、上で説明したセンサ3304として機能する少なくとも1つのセンサを含む。
[0285]デバイス3700は、デバイス3700が、デバイス3300及びデバイス3500に関して上で説明したのと同じ方法で各センサ群についてインプラント部品と骨の内壁又は外壁との間の距離を決定することができるように、処理回路を含む。デバイス3700はまた、デバイス3300及びデバイス3500に関して上で説明したのと同じ方法で、術中ガイダンスシステム108と対話し得る。従って、デバイス3700は、腕の下方及び腕の周囲の両方でインプラント部品と皮質骨の内壁又は外壁との間の距離の複数の決定を取得するように構成されている。
[0286]図37の例では、デバイス3700は、ライト3704A及び3704Bの列も含み得る。デバイス3700が患者の腕の周りに巻き付けられているとき、ライト3704A及び3704Bの列は、例えば、90若しくは180度又は何らかの他の分離距離だけ離れて位置しているであろう。ライト3704A及び3704Bの列は、インプラント部品の深さ及び位置に関する情報を外科チームに伝達し得る。各ライトは、例えば、異なる色で照明するように構成され得、異なる色は、インプラント部品に関する異なる情報を意味する。
[0287]例えば、列3704A及び3704B内のライトは、インプラント部品が検出され、それが皮質骨の内壁から閾値距離超の距離にあることを示すために緑色であるか、インプラント部品が皮質骨の内壁から閾値距離未満の距離で検出されることを示すために赤色であるか、又はインプラント部品が検出されないことを示すためにオフであり得、列内の最初のオフの光は、インプラント部品のインプラント深さも示す。他の実装形態では、列3704A及び3704B内のライトは、インプラント部品が皮質骨の内壁から第1の閾値距離未満の距離で検出されることを示すために赤色であるか、インプラント部品が検出され、それが皮質骨の内壁から第1の閾値距離よりも離れているが、皮質骨の内壁から第2の閾値距離未満の距離にあることを示すために黄色であるか、インプラント部品が検出され、それが皮質骨の内壁から第1の閾値距離かつ第2の閾値距離よりも離れていることを示すために緑色であるか、又はインプラント部品が検出されないことを示すためにオフであり得る。これらの例では、赤色の光は、皮質骨が骨折する危険にさらされていることを示す外科医への合図であり得、緑色の光は、皮質骨が骨折する危険にさらされていないことを示す外科医への合図であり得る。黄色の光は、皮質骨には骨折の危険性は差し迫っていないがそのような状態に近づいていることを外科医に知らせるために使用され得る。
[0288]センサ3702の複数のセンサ群を使用して骨の内壁又は外壁とインプラント部品の外壁との間の距離を決定することによって、デバイス3700はまた、上でより詳細に説明したように、インプラント部品と骨の内側皮質壁との間の第1の接触点を予測するか、又は骨折する確率が最も高い可能性のある内側皮質壁の領域を予測するように構成され得る。
[0289]上で説明したように、外科医は、ガイダンス情報を外科医に提示する術中ガイダンスシステム108の頭部装着型MR視覚化デバイスを装着しながら手術を行い得る。術中ガイダンスシステム108は、デバイス3300、デバイス3500、又はデバイス3700のいずれかと通信している間に、インプラントの深さ及び皮質壁までの距離に関する情報を外科医に提供するように構成され得、これにより、いつ骨折する危険があるかについてのより良い見解が外科医に提供され得るため、外科医は、骨折を回避するための措置を取ることができる。
[0290]術中ガイダンスシステム108は、デバイス3300、3500、又は3700のいずれかから、例えば、骨とインプラント部品との間の1つ又は複数の距離を示すデータを含む信号を受信するように構成された受信回路を含むことができ、骨とインプラント部品との間の1つ又は複数の距離は、骨上の1つ又は複数の位置に対応する。術中ガイダンスシステム108はまた、データを処理して、頭部装着型MR視覚化デバイスなどの出力デバイス又は他のタイプの出力デバイスに、骨とインプラント部品との間の1つ又は複数の距離に基づいて出力を生成させるように構成された処理回路を含むことができる。
[0291]出力デバイスは、例えば、聴覚アラート又は通知を生成するように構成された聴覚出力デバイスであり得る。聴覚出力デバイスは、頭部装着型MR視覚化デバイスに組み込まれ得るが、別個のデバイスの一部であってもよい。聴覚アラートは、インプラント部品が皮質骨の内壁から閾値距離内にあることを示す音声アラートの形態をとり得る。聴覚的通知の例には、インプラント部品と皮質骨の内壁との間の最も近い距離、並びにその最も近い接触点の高さ及び位置(例えば、近位、遠位、中間)の音声指示が含まれる。他の例では、聴覚出力デバイスは、外科医に知られているトーンシーケンスを使用してこの情報を外科医に伝達するように構成され得る。
[0292]出力デバイスは、追加的又は代替的に、触覚出力デバイスであり得、頭部装着型MR視覚化デバイスに組み込まれ得るか又は別個のデバイスの一部であり得る。触覚出力デバイスは、例えば、インプラント部品と皮質骨の内壁との間の距離に基づいて触覚応答を生成するように構成され得る。触覚応答の例には、振動の量又は強度が含まれる。いくつかの実装形態では、触覚出力デバイスは、外科医によって使用されるハンマー又は他のツールに実装され得る。インプラント部品が皮質骨の内壁に近づくと、ハンマー内の振動の量又は強度を増やして、インプラント部品と皮質骨の内壁との間の距離が減少していること又は閾値レベルを下回っていることを外科医に知らせることができる。
[0293]術中ガイダンスシステム108の処理回路は、本開示の他の箇所で説明されるように、骨の記憶された画像を使用して及び/又は統計的形状モデリング及び骨密度モデリングなどの本開示で説明される様々なモデリング技法を使用して、骨のモデルを決定するように構成され得る。骨のモデルの全部又は一部はまた、既知の平均又は患者の骨に特有でない他の予測技法に基づいて決定され得る。モデルは、2Dモデル又は3Dモデルのいずれかであり得る。
[0294]術中ガイダンスシステム108の処理回路は、出力デバイス、例えば、MR視覚化デバイス又はモニタに、骨のモデルの視覚的表現を表示することと、骨とインプラント部品との間の1つ又は複数の距離に基づいてモデルの視覚的表現にアノテーション付与することとを行わせるように構成され得る。いくつかの実装形態では、術中ガイダンスシステム108の処理回路は、出力デバイスに、骨のモデル上に重ねられたインプラント部品のモデルを示させるように構成され得る。術中ガイダンスシステム108は、デバイス3300、3500、又は3700によって決定されたインプラント深さ及びインプラント部品と皮質壁との間の距離に基づいて、骨のモデルに対するインプラント部品のモデルの位置を決定することができる。
[0295]図38は、術中ガイダンスシステム108によってデバイス3300、3500、又は3700のいずれかのユーザに提示され得る画像の例を示す。図38の画像は、例えば、頭部装着型MR視覚化デバイス又は他のタイプのディスプレイを介して、ユーザに提示され得る。画像は、骨3800のモデル及びインプラント部品3802のモデルを含む。骨3800及びインプラント部品3802は、手術を受けている骨及び設置されているインプラント部品の実際の画像ではなく、術中ガイダンスシステム108によって決定されたモデルである。
[0296]術中ガイダンスシステム108の処理回路は、例えば、出力デバイスに、骨(例えば、皮質骨の内壁)とインプラント部品との間の距離が閾値量未満である位置を示させるように構成され得る。出力デバイスは、多数の方法のいずれか1つ又は複数で、例えば、記号(例えば、停止標識タイプの記号)又は(例えば、赤)色を用いて位置にアノテーション付与すること、又はインプラント部品と骨壁との間の距離を伝えるテキストを画像に追加することによって、この位置を示し得る。出力デバイスは、追加的又は代替的に、点滅、強調表示、丸付け、フレーミングなどを使用することによって、この位置を示し得る。
[0297]術中ガイダンスシステム108の処理回路はまた、出力デバイスに、骨とインプラント部品との間の距離が第1の閾値量よりも大きく第2の閾値量よりも小さい位置を示させるように構成され得る。出力デバイスは、上で使用された記号又は色とは異なる記号(例えば、イールド(先方優先を示す)標識タイプの記号)又は色(例えば、黄色)を用いて、又はインプラント部品と骨壁との間の距離を伝えるテキストを画像に追加することによって、この位置を示し得る。
[0298]術中ガイダンスシステム108の処理回路はまた、出力デバイスに、骨とインプラント部品との間の距離が第1の閾値量よりも大きくかつ第2の閾値量よりも大きい位置を示させるように構成され得る。出力デバイスは、上で使用された記号又は色とは異なる記号(又は記号の欠如)又は色(例えば、緑色)を用いて、又はインプラント部品と骨壁との間の距離を伝えるテキストを画像に追加することによって、この位置を示し得る。
[0299]本明細書で説明される様々な閾値は、患者特有であり得、術中ガイダンスシステム108によって自動的に選択若しくは推奨され得るか、又は術中ガイダンスシステム108のユーザによって手動で選択され得る。更に、使用される閾値は、肢全体に対して一定であり得るか、又は肢に沿った軸方向位置及び周方向位置によって異なり得る。術中ガイダンスシステム108は、例えば、骨の決定されたモデルに基づいて、閾値又は閾値に対する推奨を決定し得る。術中ガイダンスシステム108は、例えば、より薄い皮質壁を有する患者よりも、より厚い皮質骨壁を有する患者に対してより低い閾値を選択し得る。同様に、術中ガイダンスシステム108は、悪化しているか又は別様に不健康な皮質壁を有する患者よりも、概してより健康で強い皮質壁を有する患者に対してより低い閾値を選択し得る。他の例では、術中ガイダンスシステム108は、概してより健康である肢の一部に対してより低い閾値を選択し、悪化しているか又は別様に不健康な皮質壁を有する肢の一部に対してより高い閾値を選択し得る。
[0300]上記の例では、第1の閾値は、0.5mm未満であり得る。従って、インプラント部品上の点が皮質骨の内壁から0.5mm未満の距離にあると術中ガイダンスシステム108が決定した場合、術中ガイダンスシステム108は、皮質骨が骨折する危険にさらされているという警告を外科医に提示し得る。この警告は、事実上、視覚的警告、聴覚的警告、又は触覚的警告を含む任意の形態をとり得る。第2の閾値は、例えば3mmであり得る。従って、インプラント部品上の点が皮質骨の内壁から0.5mmより離れているが3mm未満の距離にあると術中ガイダンスシステム108が決定した場合、術中ガイダンスシステム108は、骨には骨折の危険性は差し迫っていないがそのような状態に近づいているという警告を外科医に提示し得る。インプラント部品上の点が皮質骨の内壁から3mm超の距離にあると術中ガイダンスシステム108が決定した場合、術中ガイダンスシステム108は、骨が亀裂又は骨折する危険にさらされていないこと示す通知を外科医に提示し得る。通知は、例えば、警告の欠如であり得る。
[0301]図39は、本開示の技法による、システムによって実行され得るプロセスを例示するフロー図を示す。図39のプロセスは、デバイス3300、デバイス3500、デバイス3700、術中ガイダンスシステム108のいずれかによって実行され得るか、又は術中ガイダンスシステム108と、デバイス3300、デバイス3500、若しくはデバイス3700のうちの1つを両方含むシステムによって実行され得る。説明を容易にするために、図39の技法は、一般的なシステムに関して説明される。
[0302]第1のセンサからのセンサ出力に基づいて、システムは、第1のセンサと骨の外壁との間の距離に対応する第1の距離を決定する(3900)。第1のセンサは、例えば、音波を放出し、音波の反射を受信するように構成された超音波センサであり得る。システムは、本開示の他の箇所で説明されるように、超音波センサが音波を放出する時間と超音波センサが音波の反射を受信する時間との差に基づいて第1の距離を決定し得る。
[0303]第2のセンサからのセンサ出力に基づいて、システムは、第2のセンサとインプラント部品との間の距離に対応する第2の距離を決定する(3902)。第2のセンサは、例えば、ホール効果センサなどの磁気センサであり得、システムは、磁場を放出することと、磁場によって誘起される電圧変化を検出することと、電圧変化を距離値に変換することとによって、第2の距離を決定し得る。
[0304]第1の距離及び第2の距離に基づいて、システムは、インプラント部品から骨までの距離を決定する(3904)。本開示の他の箇所で説明されるように、インプラント部品から骨までの距離は、インプラント部品の外壁から骨の内壁までの距離であり得るか、又はインプラント部品の外壁から骨の外壁までの距離であり得る。
[0305]システムは、インプラント部品から骨までの距離に基づいて出力を生成する(3906)。
[0306]図40は、本開示の1つ又は複数の技法による、MRシステムによって提供され得、二次ビューウィンドウを提供する例となるビューの概念図である。図40の例は、整形外科的肩関節手術中にMR視覚化デバイス(例えば、視覚化デバイス213)を使用しているときに外科医が見る可能性があるものを示す。特に、図40の例では、外科医は、上腕骨2000の露出部分を見ることができる。
[0307]上述したように、外科医は、患者の解剖学的構造(例えば、上腕骨2000など)の一部に対して作業を行うために、1つ又は複数のツールを使用し得る。例えば、外科医は、準備された上腕骨2000内にプロテーゼ2042を挿入するためにハンドル2040を使用し得る。いくつかの状況では、外科医が、プロテーゼ2042などのツールが組織又は骨にどの程度深く貫入したかを評価することは困難であり得る。これは、外科医がハンドル2040の長さ(the length)を上から見ているとき、特に困難であり得る。
[0308]従って、本開示の1つ又は複数の技法によれば、MRシステム212の視覚化デバイス213は、二次ビューウィンドウ4000を含むMR視覚化を生成し得、二次ビューウィンドウ4000は、他の仮想ガイダンスなどの任意のコンテンツが重ねられるか、又は他の方法で任意のコンテンツから構成される、メインウィンドウのサブウィンドウであり得る。二次ビューウィンドウ4000は、他の仮想ガイダンス(例えば、仮想マーカ、深度ガイダンスなど)と共に、外科医の視野において物理的な現実世界のオブジェクトと共に表示され得る。従って、図40の例では、外科医は、上腕骨2000の露出部分、ハンドル2040、及びプロテーゼ2042、並びに仮想軸又は仮想侵入点などの任意の仮想ガイダンスと共に、二次ビューウィンドウ4000を見ることができる。いくつかの例では、外科医又は他のユーザは、二次ビューウィンドウ4000のサイズ変更又は再配置を行い得る。
[0309]二次ビューウィンドウ4000は、手術部位に関する異なる視点を表す画像を含む。例えば、図40の例では、手術部位は患者の上腕骨であり、外科医が上腕骨2000にプロテーゼ2042を挿入している。
[0310]外科医は、二次ビューウィンドウ4000を使用して、ツールが貫入した深さを確認し、及び/又はツールと骨との相対位置を監視し得る。例えば、図40の例では、外科医は、二次ビューウィンドウ4000を使用して、上腕骨2000の位置に対するプロテーゼ2042の位置を決定し得る。
[0311]二次ビューウィンドウ4000に提示される画像は、様々な方法で生成され得る。例えば、二次ビューウィンドウ4000に提示される画像は、仮想オブジェクトを含むか、又は仮想オブジェクトから構成され得る。例えば、二次ビューウィンドウ4000に提示される画像は、患者の解剖学的構造の仮想3次元モデルを含み得る。追加的に、二次ビューウィンドウ4000に提示される画像は、外科医によって使用されているツールの仮想3次元モデルを含み得る。従って、図40の例では、二次ビューウィンドウ4000は、患者の上腕骨2000の仮想3次元モデル及びプロテーゼ2042の仮想3次元モデルを含み得る。
[0312]二次ビューウィンドウ4000に提示される画像が仮想オブジェクトを含むか又は仮想オブジェクトから構成される例では、患者の解剖学的構造は、本開示の他の箇所で説明されるように、患者の解剖学的構造の対応する仮想モデルと位置合わせされ得る。例えば、患者の上腕骨は、患者の上腕骨の仮想モデルに位置合わせされ得る。従って、コンピューティングシステム(例えば、図2のMRシステム212)は、3次元空間において患者の解剖学的構造の位置及び向きを決定することができる。更に、コンピューティングシステムは、コンピューティングシステムが同じ3次元空間においてツール(例えば、プロテーゼ2042)の位置を決定することを可能にする1つ又は複数のセンサ(例えば、カメラ、モーションセンサなど)から情報を受信し得る。ツール上の1つ又は複数のマーカは、コンピューティングシステムがツールの位置を識別するのを支援し得る。従って、コンピューティングシステムは、患者の解剖学的構造に対するツールの位置を決定し得る。コンピューティングシステムは、患者の解剖学的構造とツールとの相対位置に基づいて二次ビューウィンドウ4000の画像を生成し得る。従って、図40の例では、コンピューティングシステムは、患者の上腕骨2000の仮想3次元モデルとプロテーゼ2042の仮想3次元モデルとの相対位置(例えば、骨仮想モデル3200とインプラントツール仮想モデル3204との相対位置)を示すMR視覚化を二次ビューウィンドウ4000内に生成し得る。
[0313]患者の解剖学的構造の及び外科医によって使用されるツールの仮想3次元モデルを提示することは、特定の一連の課題に対処し得る。例えば、看護師が二次ビューウィンドウ4000に画像を供給するカメラを保持又は装着している例では、看護師の自然な動きで、外科医の気を散らす可能性があるカメラの手ぶれが引き起こされ得る。カメラの手ぶれを補償するために、コンピューティングシステムは、画像安定化を適用する必要があり得るが、これは、計算コストが高く、バッテリを消耗させる可能性があり得、視野を減少させ得る。更に、二次ビューウィンドウ4000内の仮想3次元モデルは、このようにカメラの手ぶれを受けず、これは、そうでなければ画像安定化に費やされる計算リソースを節約し、潜在的に視野を増大させ、外科医の注意散漫を低減させることができる。
[0314]仮想3次元モデルを使用することの別の潜在的な利点は、不要なバックグラウンド情報が二次ビューウィンドウ4000から省略され得ることであり得る。例えば、図40の例では、組織又は他の手術野アイテムが、二次ビューウィンドウ4000内に提示される画像から省略され得る。不要なバックグラウンド情報を省略することにより、外科医の視覚的な注意散漫を更に低減することができる。更に、外科医は、二次ビューウィンドウ4000に示される仮想3次元モデルの視点を、人間の看護師が手持ち式又は頭部装着型カメラを用いて得ることが実現困難であり得る角度に回転又は別の方法で変更することが可能であり得る。従って、外科医が望み得る視点を達成するためには固定位置のビデオカメラ又は機械腕搭載カメラを使用する必要があり得る。仮想3次元モデルの使用により、そのようなカメラ及び取付けシステムに病院のリソースを費やす必要がなくなり得る。
[0315]上述したように、いくつかの例では、MRシステム212は、患者の解剖学的構造の仮想3次元モデルとツールの仮想3次元モデルとの相対位置(例えば、骨仮想モデル3200とインプラントツール仮想モデル3204との相対位置)の指示を表示し得る。一例として、MRシステム212は、患者の解剖学的構造及びツールの仮想3次元モデルの視覚的表現を表示することによって指示を表示し得る。例えば、図40の例に示されるように、MRシステム212は、ツール仮想モデル3204の視覚的表現に対して骨仮想モデル3200の視覚的表現を表示し得る。別の例として、MRシステム212は、患者の解剖学的構造の仮想3次元モデルとツールの仮想3次元モデルとの間の相対距離の指示を表示し得る。例えば、図40の例に示されるように、MRシステム212は、骨仮想モデル3200とツール仮想モデル3204との間の推定距離(例えば、5mm)のテキスト(例えば、数値)を表示し得る。別の例として、MRシステム212は、患者の解剖学的構造の仮想3次元モデル上のどの点とツールの仮想3次元モデル上のどの点が最も近いかを示す指示を表示し得る。例えば、図40の例に示されるように、MRシステム212は、ツール仮想モデル3204上の点に最も近い骨仮想モデル3200上の点を接続する矢印を表示し得る。
[0316]本技法は限られた数の例に関して開示されているが、当業者であれば、本開示の利益を得て、それらから多数の修正例及び変形例を理解するであろう。例えば、説明された例の任意の合理的な組合せが実行され得ることが企図される。添付の特許請求の範囲が、本発明の真の主旨及び範囲内に入るような修正例及び変形例をカバーすることは意図される。
[0317]例に応じて、本明細書で説明される技法のいずれかの特定の行為又はイベントが異なる順序で実行され得、追加、マージ、又は完全に省略され得る(例えば、説明される行為又はイベントの全てが技法の実施に必要であるとは限らない)ことが認識されるべきである。更に、特定の例では、行為又はイベントは、連続的にではなく、例えば、マルチスレッド処理、割込み処理、又は複数のプロセッサを通して、同時に実行され得る。
[0318]1つ又は複数の例では、説明される機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せにより実装され得る。ソフトウェアにより実装される場合、これらの機能は、コンピュータ可読媒体上の1つ又は複数の命令又はコードとして記憶又は送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体のような有形媒体に対応するコンピュータ可読記憶媒体、又は、例えば通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの移動を容易にする任意の媒体を含む通信媒体を含み得る。このように、コンピュータ可読媒体は、一般に、(1)非一時的である有形コンピュータ可読記憶媒体、又は(2)信号若しくは搬送波のような通信媒体に対応し得る。データ記憶媒体は、本開示で説明される技法の実装のための命令、コード、及び/又はデータ構造を取り出すために、1つ若しくは複数のコンピュータ又は1つ若しくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
[0319]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD-ROM若しくは他の光ディスク記憶装置、磁気ディスク記憶装置若しくは他の磁気記憶デバイス、フラッシュメモリ、又は命令若しくはデータ構造の形態で所望のプログラムコードを記憶するために使用可能であり、コンピュータによってアクセスされ得る任意の他の媒体を含むことができる。また、いかなる接続もコンピュータ可読媒体と適切に称される。例えば、命令が、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL)、又は赤外線、電波、及びマイクロ波のようなワイヤレス技術を使用して、ウェブサイト、サーバ、又は他の遠隔ソースから送信される場合、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、又は赤外線、電波、及びマイクロ波のようなワイヤレス技術は、媒体の定義に含まれる。しかしながら、コンピュータ可読記憶媒体及びデータ記憶媒体が、接続、搬送波、信号、又は他の一時的媒体を含まず、代わりに、非一時的有形記憶媒体を対象とすることは理解されるべきである。ディスク(disk)及びディスク(disc)は、本明細書で使用される場合、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスク、及びブルーレイディスクを含み、ディスク(disk)は通常磁気的にデータを再生し、ディスク(disc)はレーザで光学的にデータを再生する。上記の組合せもコンピュータ可読媒体の範囲に含まれるべきである。
[0320]本開示で説明される動作は、1つ又は複数のデジタルシグナルプロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、又は他の同等の集積回路若しくは個別論理回路のような、固定機能処理回路、プログラマブル回路、又はそれらの組合せとして実装され得る1つ又は複数のプロセッサによって実行され得る。固定機能回路とは、特定の機能性を提供し、実行可能な動作が予め設定されている回路を指す。プログラマブル回路とは、様々なタスクを実行し、実行可能な動作において柔軟な機能性を提供するようにプログラムされ得る回路を指す。例えば、プログラマブル回路は、ソフトウェア又はファームウェアの命令によって定義された方法でプログラマブル回路を動作させるソフトウェア又はファームウェアによって指定された命令を実行し得る。固定機能回路は、(例えば、パラメータを受け取るか、又はパラメータを出力するために)ソフトウェア命令を実行し得るが、固定機能回路が実行する動作のタイプは一般に不変である。従って、本明細書で使用される場合、「プロセッサ」及び「処理回路」という用語は、前述の構造のいずれか、又は本明細書で説明される技法の実装に好適な任意の他の構造を指し得る。
[0321]様々な例を説明してきた。これらの例及び他の例は、以下の特許請求の範囲内である。
以下に、出願当初の特許請求の範囲に記載の事項を、そのまま、付記しておく。
[1] 患者内の骨壁までの距離を表す第1の値を感知するための第1のセンサと、
前記患者内のインプラント部品までの距離を表す第2の値を感知するように構成された第2のセンサと、
前記第1の値及び前記第2の値を処理するように構成された処理回路と、
前記第1の値及び前記第2の値に基づいて出力を生成するように構成された送信回路と
を備えるデバイス。
[2] 前記第1のセンサは超音波センサを含む、[1]に記載のデバイス。
[3] 前記超音波センサは、音波を放出し、前記音波の反射を受信するように構成されている、[2]に記載のデバイス。
[4] 前記第1のセンサは、前記超音波センサが前記音波を放出する時間と前記超音波センサが前記音波の反射を受信する時間との差に基づいて前記第1の値を感知する、[3]に記載のデバイス。
[5] 前記第2のセンサは磁気センサを含む、[1]から[4]のいずれか一項に記載のデバイス。
[6] 前記磁気センサは、磁場を放出し、前記磁場の放出に応答して前記磁気センサに誘起される電圧変化を検出するように構成されている、[5]に記載のデバイス。
[7] 前記第2のセンサは、ホール効果センサを含む、[1]から[5]のいずれか一項に記載のデバイス。
[8] 前記第1の値は電圧値を含む、[1]から[6]のいずれか一項に記載のデバイス。
[9] 前記第1のセンサ及び前記第2のセンサは第1のセンサ群を構成し、前記デバイスは、
前記第1のセンサ群及び少なくとももう1つのセンサ群を含む複数のセンサ群を更に備え、各センサ群は、前記患者内の前記骨壁までのそれぞれの距離を表すそれぞれの第1の値と、前記患者内の前記インプラント部品までのそれぞれの距離を表すそれぞれの第2の値とを感知するように構成されている、
[1]から[8]のいずれか一項に記載のデバイス。
[10] 前記複数のセンサ群は、肢の円周上の異なる点において読み取り値を取得するように構成された少なくとも2つのセンサ群を含む、[9]に記載のデバイス。
[11] 前記複数のセンサ群は、肢上の異なる軸方向位置で読み取り値を取得するように構成された少なくとも2つのセンサ群を含む、[9]又は[10]に記載のデバイス。
[12] 前記処理回路は、
前記第1の値に基づいて、前記患者内の前記骨壁までの距離を決定することと、
前記第2の値に基づいて、前記患者内の前記インプラント部品までの距離を決定することと
を行うように更に構成されている、[1]から[11]のいずれか一項に記載のデバイス。
[13] 前記処理回路は、
前記第1の値及び前記第2の値に基づいて、前記骨壁から前記インプラント部品までの距離を決定する
ように更に構成されている、[1]から[12]のいずれか一項に記載のデバイス。
[14] 1つ又は複数のライトを更に備え、前記処理回路は、前記骨壁から前記インプラント部品までの距離が閾値未満であることに応答して、前記1つ又は複数のライトのうちの1つのライトを点灯させるように構成されている、
[1]から[13]のいずれか一項に記載のデバイス。
[15] 前記デバイスは、ストラップ、腕用バンド、カフ、又はワンドのうちの1つ又は複数を備える、[1]から[6]のいずれか一項に記載のデバイス。
[16] 信号を受信するように構成された受信回路と、ここにおいて、前記信号は、骨とインプラント部品との間の1つ又は複数の距離を示すデータを含み、前記骨と前記インプラント部品との間の前記1つ又は複数の距離は、前記骨上の1つ又は複数の位置に対応し、
前記骨と前記インプラント部品との間の前記1つ又は複数の距離に基づいて出力を生成することを出力デバイスに行わせるために前記データを処理するように構成された処理回路と
を備えるデバイス。
[17] 前記出力デバイスはディスプレイデバイスを含む、[16]に記載のデバイス。
[18] 前記ディスプレイデバイスは、複合現実ヘッドセット、仮想現実ヘッドセット、拡張現実ヘッドセット、又はモニタのうちの少なくとも1つを備える、[17]に記載のデバイス。
[19] 前記出力デバイスは聴覚出力デバイスを含む、[16]から[18]のいずれか一項に記載のデバイス。
[20] 前記出力デバイスは触覚出力デバイスを含む、[16]から[19]のいずれか一項に記載のデバイス。
[21] 前記処理回路は、前記骨のモデルを決定するように構成されている、[16]から[20]のいずれか一項に記載のデバイス。
[22] 前記処理回路は、前記骨の記憶された画像スキャンに基づいて前記骨の前記モデルを決定するように構成されている、[21]に記載のデバイス。
[23] 前記処理回路は、前記骨の統計的形状モデリングに基づいて前記骨の前記モデルを決定するように構成されている、[21]又は[22]に記載のデバイス。
[24] 前記モデルは3Dモデルを含む、[21]から[23]のいずれか一項に記載のデバイス。
[25] 前記処理回路は、
前記モデルに基づいて前記骨の厚さを決定することと、
前記骨と前記インプラント部品との間の距離が閾値未満である前記骨上の位置を決定することと
を行うように構成されている、[21]から[24]のいずれか一項に記載のデバイス。
[26] 前記処理回路は、
前記骨のモデルの視覚的表現を表示することと、
前記骨と前記インプラント部品との間の前記1つ又は複数の距離に基づいて、前記モデルの前記視覚的表現にアノテーション付与することと
を前記出力デバイスに行わせる、[16]から[25]のいずれか一項に記載のデバイス。
[27] 前記骨と前記インプラント部品との間の前記1つ又は複数の距離に基づいて、前記モデルの前記視覚的表現にアノテーション付与するために、前記処理回路は、前記骨の前記モデルの前記視覚的表現に、前記骨と前記インプラント部品との間の距離が閾値量未満である位置を示させる、[26]に記載のデバイス。
[28] 前記骨と前記インプラント部品との間の前記1つ又は複数の距離に基づいて、前記モデルの前記視覚的表現にアノテーション付与するために、前記処理回路は、前記骨の前記モデルの前記視覚的表現に、前記骨と前記インプラント部品との間の距離が第1の閾値量未満である第1の位置を示させ、前記骨と前記インプラント部品との間の距離が、前記第1の閾値量より大きく第2の閾値量より小さい第2の位置を示させる、[26]又は[27]に記載のデバイス。
[29] 前記骨と前記インプラント部品との間の前記1つ又は複数の距離に基づいて、前記モデルの前記視覚的表現にアノテーション付与するために、前記処理回路は更に、前記骨の前記モデルの前記視覚的表現に、前記骨と前記インプラント部品との間の距離が、前記第1の閾値量より大きくかつ前記第2の閾値量より大きい第3の位置を示させる、[28]に記載のデバイス。
[30] 前記骨と前記インプラント部品との間の距離を示す前記データは、デバイスから患者内の骨壁までの距離を示す第1の値と、前記患者内のインプラント部品までの距離を示す第2の値とを含む、[16]から[26]のいずれか一項に記載のデバイス。
[31] 前記処理回路は、前記第2の値と前記第1の値との間の差の関数として、前記骨と前記インプラント部品との間の距離を決定するように構成されている、[30]に記載のデバイス。
[32] 第1のセンサからのセンサ出力に基づいて、前記第1のセンサと骨の外壁との間の距離に対応する第1の距離を決定することと、
第2のセンサからのセンサ出力に基づいて、前記第2のセンサとプロテーゼとの間の距離に対応する第2の距離を決定することと、
前記第1の距離及び前記第2の距離に基づいて、インプラント部品から前記骨までの距離を決定することと、
前記インプラント部品から前記骨までの距離に基づいて出力を生成することと、
を備える方法。
[33] 前記インプラント部品から前記骨までの距離は、前記インプラント部品の外壁から前記骨の内壁までの距離を含む、[32]に記載の方法。
[34] 前記骨の前記内壁と前記骨の外壁との間の距離を決定することと、
前記骨の前記内壁と前記骨の前記外壁との間の距離に基づいて、前記インプラント部品の前記外壁から前記骨の前記内壁までの距離を決定することと、を更に備える、[33]に記載の方法。
[35] 前記インプラント部品から前記骨までの距離は、前記インプラント部品の外壁から前記骨の外壁までの距離を含む、[32]に記載の方法。
[36] 前記第1のセンサは超音波センサを含む、[32]から[35]のいずれか一項に記載の方法。
[37] 前記超音波センサは、音波を放出し、前記音波の反射を受信するように構成されている、[36]に記載の方法。
[38] 前記第1の距離を決定することは、前記超音波センサが前記音波を放出する時間と前記超音波センサが前記音波の反射を受信する時間との差に基づいて前記第1の距離を決定することを含む、[37]に記載の方法。
[39] 前記第2のセンサは磁気センサを含む、[32]から[38]のいずれか一項に記載の方法。
[40] 前記第2の距離を決定することは、
磁場を放出することと、
前記磁場によって誘起される電圧変化を検出することと、
前記電圧変化を距離値に変換することと
を含む、[39]に記載の方法。
[41] 前記第2のセンサは、ホール効果センサを含む、[32]から[40]のいずれか一項に記載の方法。
[42] 実行されると、仮想手術システムの1つ又は複数のプロセッサに、[32]から[41]のいずれか一項に記載の方法を実行させる命令を記憶する、コンピュータ可読記憶媒体。
[43] [32]から[41]のいずれか一項に記載の方法を実行するための手段を備える、仮想手術システム。

Claims (14)

  1. 第1のセンサから患者内の骨の外壁までの距離を表す第1の値を感知するための第1のセンサと、
    第2のセンサから前記内のインプラント部品の一部までの距離を表す第2の値を感知するように構成された第2のセンサと、
    前記第1の値及び前記第2の値を処理するように構成された処理回路と、
    前記第1の値及び前記第2の値に基づいて出力を生成するように構成された送信回路と、ここで、前記出力は、前記骨内の前記インプラント部品の一部と前記骨の外壁との間の距離を示す
    を備える、デバイス。
  2. 前記第1のセンサは超音波センサを含み、前記超音波センサは、音波を放出し、前記音波の反射を受信するように構成されている、請求項1に記載のデバイス。
  3. 前記第1のセンサは、前記超音波センサが前記音波を放出する時間と前記超音波センサが前記音波の反射を受信する時間との差に基づいて前記第1の値を感知する、請求項2に記載のデバイス。
  4. 前記第2のセンサは磁気センサを含み、前記磁気センサは、磁場を放出し、前記磁場の放出に応答して前記磁気センサに誘起される電圧変化を検出するように構成されている、請求項1から3のいずれか一項に記載のデバイス。
  5. 前記第1の値は電圧値を含む、請求項1から4のいずれか一項に記載のデバイス。
  6. 前記第1のセンサ及び前記第2のセンサは第1のセンサ群を構成し、前記デバイスは、
    前記第1のセンサ群及び少なくとももう1つのセンサ群を含む複数のセンサ群を更に備え、各センサ群は、複数の第1のセンサの各センサから前記患者内の前記骨の外壁までのそれぞれの距離を表すそれぞれの第1の値と、複数の第2のセンサの各センサから前記患者内の前記インプラント部品の一部までのそれぞれの距離を表すそれぞれの第2の値とを感知するように構成されている、
    請求項1から5のいずれか一項に記載のデバイス。
  7. 前記複数のセンサ群は、肢の円周上の異なる点において読み取り値を取得するように構成された少なくとも2つのセンサ群を含む、請求項6に記載のデバイス。
  8. 前記複数のセンサ群は、肢上の異なる軸方向位置で読み取り値を取得するように構成された少なくとも2つのセンサ群を含む、請求項6又は7に記載のデバイス。
  9. 前記処理回路は、
    前記第1の値に基づいて、前記第1のセンサから前記患者内の前記骨の外壁までの距離を決定することと、
    前記第2の値に基づいて、前記第2のセンサから前記内の前記インプラント部品の一部までの距離を決定することと、
    を行うように更に構成されている、請求項1から8のいずれか一項に記載のデバイス。
  10. 第1のセンサからのセンサ出力に基づいて、前記第1のセンサと骨の外壁との間の距離に対応する第1の距離を決定することと、
    第2のセンサからのセンサ出力に基づいて、前記第2のセンサとインプラント部品の外壁との間の距離に対応する第2の距離を決定することと、ここで、前記インプラント部品の外壁は前記骨に埋め込まれる前記インプラント部品の一部を含み、
    前記第1の距離及び前記第2の距離に基づいて、前記インプラント部品の外壁から前記骨の外壁までの距離を決定することと、
    出力を生成することと、ここで、前記出力は、前記インプラント部品の外壁から前記骨の外壁までの距離を示す、
    を備える方法。
  11. 前記第1のセンサは超音波センサを含み、前記超音波センサは、音波を放出し、前記音波の反射を受信するように構成されている、請求項10に記載の方法。
  12. 前記第1のセンサと前記骨の外壁との間の距離に対応する第1の距離を決定することは、前記超音波センサが音波を放出するときと前記超音波センサが前記音波の反射を受信するときの時間差に基づいて前記第1の距離を決定することを含む、請求項11に記載の方法。
  13. 前記第2のセンサは磁気センサを含み、前記磁気センサは磁場を放出し、前記磁場の放出に応答して前記磁気センサに誘起される電圧変化を検出するように構成されている、請求項10から12のいずれか一項に記載の方法。
  14. 実行されると、仮想手術システムの1つ又は複数のプロセッサに、請求項10から1のいずれか一項に記載の方法を実行させる命令を記憶する、コンピュータ可読記憶媒体。
JP2021567857A 2019-05-14 2020-05-01 整形外科インプラント埋植のための骨壁追跡及びガイダンス Active JP7322182B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962847740P 2019-05-14 2019-05-14
US201962847746P 2019-05-14 2019-05-14
US62/847,740 2019-05-14
US62/847,746 2019-05-14
PCT/US2020/031097 WO2020231654A1 (en) 2019-05-14 2020-05-01 Bone wall tracking and guidance for orthopedic implant placement

Publications (2)

Publication Number Publication Date
JP2022533586A JP2022533586A (ja) 2022-07-25
JP7322182B2 true JP7322182B2 (ja) 2023-08-07

Family

ID=70775583

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021567857A Active JP7322182B2 (ja) 2019-05-14 2020-05-01 整形外科インプラント埋植のための骨壁追跡及びガイダンス
JP2021567858A Active JP7322183B2 (ja) 2019-05-14 2020-05-01 整形外科インプラント埋植のための骨壁追跡及びガイダンス

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021567858A Active JP7322183B2 (ja) 2019-05-14 2020-05-01 整形外科インプラント埋植のための骨壁追跡及びガイダンス

Country Status (5)

Country Link
US (2) US20220211444A1 (ja)
EP (2) EP3968886A1 (ja)
JP (2) JP7322182B2 (ja)
AU (2) AU2020275280B2 (ja)
WO (2) WO2020231654A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3810015A1 (en) 2018-06-19 2021-04-28 Tornier, Inc. Mixed-reality surgical system with physical markers for registration of virtual models
US11182576B1 (en) * 2019-07-31 2021-11-23 Splunk Inc. Techniques for using tag placement to determine 3D object orientation
US11890058B2 (en) * 2021-01-21 2024-02-06 Arthrex, Inc. Orthopaedic planning systems and methods of repair
CN113509265A (zh) * 2021-04-01 2021-10-19 上海复拓知达医疗科技有限公司 一种动态位置识别提示系统及其方法
CA3233492A1 (en) * 2021-10-07 2023-04-13 Nick Metcalfe Surgical systems, anatomical models and associated methods
WO2023239611A1 (en) * 2022-06-09 2023-12-14 Howmedica Osteonics Corp. Prediction of bone based on point cloud
WO2023239613A1 (en) * 2022-06-09 2023-12-14 Howmedica Osteonics Corp. Automated prediction of surgical guides using point clouds

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007528243A (ja) 2004-03-05 2007-10-11 デピュー インターナショナル リミテッド 整形外科モニター・システム、方法および装置
US20080114270A1 (en) 2006-09-29 2008-05-15 Disilvestro Mark R Apparatus and method for monitoring the position of an orthopaedic prosthesis
US20170245830A1 (en) 2014-09-19 2017-08-31 Think Surgical, Inc. System and process for ultrasonic determination of long bone orientation

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8010180B2 (en) * 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
US8214016B2 (en) 2006-12-12 2012-07-03 Perception Raisonnement Action En Medecine System and method for determining an optimal type and position of an implant
EP2421461B1 (en) 2009-04-25 2015-07-15 Siemens Aktiengesellschaft System for assessing the relative pose of an implant and a bone of a creature
CN102933163A (zh) * 2010-04-14 2013-02-13 史密夫和内修有限公司 用于基于患者的计算机辅助手术程序的系统和方法
US8951256B2 (en) * 2010-11-23 2015-02-10 University Of Massachusetts System and method for orienting orthopedic implants
EP2651344A4 (en) * 2010-12-17 2015-08-19 Intellijoint Surgical Inc METHOD AND SYSTEM FOR ALIGNING A PROSTHESIS DURING A SURGICAL INTERVENTION
EP2754419B1 (en) * 2011-02-15 2024-02-07 ConforMIS, Inc. Patient-adapted and improved orthopedic implants
CA2829626C (en) * 2011-03-10 2020-06-16 Acutus Medical, Inc. Device and method for the geometric determination of electrical dipole densities on the cardiac wall
US10624710B2 (en) * 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
KR102470649B1 (ko) 2013-12-31 2022-11-23 마코 서지컬 코포레이션 커스터마이징된 햅틱 경계를 생성하기 위한 시스템 및 방법
US20160113683A1 (en) * 2014-04-28 2016-04-28 Ellipse Technologies, Inc. System for informational magnetic feedback in adjustable implants
US10726744B2 (en) * 2016-02-05 2020-07-28 ReaLifeSim, LLC Apparatus and method for simulated health care procedures in combination with virtual reality
US20190113683A1 (en) * 2016-03-31 2019-04-18 Sumitomo Osaka Cement Co., Ltd Optical modulation device
US10478254B2 (en) * 2016-05-16 2019-11-19 Covidien Lp System and method to access lung tissue
US20190290361A1 (en) * 2016-05-16 2019-09-26 Think Surgical, Inc. Implant design and computer assisted surgery
EP3318213B1 (en) 2016-11-04 2022-10-12 Globus Medical, Inc System for measuring depth of instrumentation
US10405777B2 (en) * 2016-12-05 2019-09-10 Northwestern University Apparatuses, systems and methods for detection of an ingested battery or magnet
US11751944B2 (en) * 2017-01-16 2023-09-12 Philipp K. Lang Optical guidance for surgical, medical, and dental procedures
WO2019148154A1 (en) * 2018-01-29 2019-08-01 Lang Philipp K Augmented reality guidance for orthopedic and other surgical procedures

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007528243A (ja) 2004-03-05 2007-10-11 デピュー インターナショナル リミテッド 整形外科モニター・システム、方法および装置
US20080114270A1 (en) 2006-09-29 2008-05-15 Disilvestro Mark R Apparatus and method for monitoring the position of an orthopaedic prosthesis
US20170245830A1 (en) 2014-09-19 2017-08-31 Think Surgical, Inc. System and process for ultrasonic determination of long bone orientation

Also Published As

Publication number Publication date
AU2020275280A1 (en) 2021-11-25
US20220211443A1 (en) 2022-07-07
AU2020275280B2 (en) 2023-07-06
AU2020273972A1 (en) 2021-11-25
EP3968886A1 (en) 2022-03-23
AU2020273972B2 (en) 2023-04-20
WO2020231654A1 (en) 2020-11-19
JP7322183B2 (ja) 2023-08-07
WO2020231655A1 (en) 2020-11-19
US20220211444A1 (en) 2022-07-07
JP2022532348A (ja) 2022-07-14
EP3968887A1 (en) 2022-03-23
JP2022533586A (ja) 2022-07-25

Similar Documents

Publication Publication Date Title
JP7322182B2 (ja) 整形外科インプラント埋植のための骨壁追跡及びガイダンス
US20220211507A1 (en) Patient-matched orthopedic implant
US11272989B2 (en) Multi-level positional tracking
US20210346117A1 (en) Registration marker with anti-rotation base for orthopedic surgical procedures
US20230363831A1 (en) Markerless navigation system
AU2021224529B2 (en) Computer-implemented surgical planning based on bone loss during orthopedic revision surgery
US20230026489A1 (en) Surgical guidance for surgical tools
US20220361960A1 (en) Tracking surgical pin
US20230019543A1 (en) Anatomical feature extraction and presentation using augmented reality
US20230000508A1 (en) Targeting tool for virtual surgical guidance
US11622817B2 (en) Easy to manufacture autoclavable LED for optical tracking
WO2022265983A1 (en) Clamping tool mounted registration marker for orthopedic surgical procedures
US20230149028A1 (en) Mixed reality guidance for bone graft cutting
WO2023196716A1 (en) Multi-atlas alignment and sizing of orthopedic implants
WO2024054578A1 (en) Mixed reality bone graft shaping

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230726

R150 Certificate of patent or registration of utility model

Ref document number: 7322182

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150