JP2022538666A - 手術ナビゲーションのための障害物回避技法 - Google Patents
手術ナビゲーションのための障害物回避技法 Download PDFInfo
- Publication number
- JP2022538666A JP2022538666A JP2021578151A JP2021578151A JP2022538666A JP 2022538666 A JP2022538666 A JP 2022538666A JP 2021578151 A JP2021578151 A JP 2021578151A JP 2021578151 A JP2021578151 A JP 2021578151A JP 2022538666 A JP2022538666 A JP 2022538666A
- Authority
- JP
- Japan
- Prior art keywords
- depth map
- coordinate system
- localizer
- surgical
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000000007 visual effect Effects 0.000 claims description 108
- 230000004807 localization Effects 0.000 claims description 29
- 230000033001 locomotion Effects 0.000 claims description 28
- 230000004044 response Effects 0.000 claims description 24
- 230000003595 spectral effect Effects 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 claims 1
- 230000003287 optical effect Effects 0.000 description 55
- 238000001356 surgical procedure Methods 0.000 description 41
- 230000009466 transformation Effects 0.000 description 27
- 210000003484 anatomy Anatomy 0.000 description 25
- 210000001519 tissue Anatomy 0.000 description 24
- 210000000689 upper leg Anatomy 0.000 description 20
- 238000003860 storage Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 210000004872 soft tissue Anatomy 0.000 description 16
- 210000000988 bone and bone Anatomy 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 210000002303 tibia Anatomy 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 10
- 210000003041 ligament Anatomy 0.000 description 9
- 239000012636 effector Substances 0.000 description 8
- 239000002245 particle Substances 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- QQAHEGDXEXIQPR-UHFFFAOYSA-N 2-(ethylamino)-1-phenylpentan-1-one Chemical compound CCCC(NCC)C(=O)C1=CC=CC=C1 QQAHEGDXEXIQPR-UHFFFAOYSA-N 0.000 description 5
- 102100032262 E2F-associated phosphoprotein Human genes 0.000 description 5
- 101710155837 E2F-associated phosphoprotein Proteins 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000012876 topography Methods 0.000 description 5
- 238000002604 ultrasonography Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000000246 remedial effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001444 catalytic combustion detection Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 210000003491 skin Anatomy 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000004873 anchoring Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013150 knee replacement Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000002271 resection Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/02—Surgical instruments, devices or methods, e.g. tourniquets for holding wounds open; Tractors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00681—Aspects not otherwise provided for
- A61B2017/00725—Calibration or performance testing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/061—Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Manipulator (AREA)
Abstract
Description
本出願は、2019年7月3日に出願された米国仮特許出願第62/870,284号に対する優先権及びこの仮出願の全ての利益を主張するものであり、この仮出願の内容を全体として参照により本明細書に組み込む。
Claims (28)
- 第1のオブジェクトの位置を検出するように構成されたローカライザと、
前記第1のオブジェクトの近傍の表面の実深度マップを生成するように構成された視覚デバイスと、
前記ローカライザ及び前記視覚デバイスに結合されたコントローラであって、前記コントローラが、
前記第1のオブジェクトに対応する仮想モデルにアクセスすることと、
共通座標系で前記ローカライザと前記視覚デバイスとの位置関係を特定することと、
前記第1のオブジェクトの前記検出位置、前記仮想モデル、及び前記位置関係に基づいて、前記視覚デバイスの予想深度マップを生成することと、
前記予想深度マップと一致しない前記実深度マップの部分を特定することと、
前記特定された部分に基づいて第2のオブジェクトを認識することと
を行うように構成される、前記コントローラと
を備える、ナビゲーションシステム。 - 前記コントローラは、前記第1のオブジェクトの前記検出位置、前記実深度マップにおける前記第2のオブジェクトの場所、及び前記位置関係に基づいて、前記共通座標系における前記第1のオブジェクトに対する前記第2のオブジェクトの位置を特定するように構成される、請求項1に記載のナビゲーションシステム。
- 前記第1のオブジェクトは、手術計画に従って治療すべき患者組織の標的体積を画定しており、前記コントローラは、
前記共通座標系における前記標的体積に対する前記第2のオブジェクトの前記位置と前記手術計画と、に基づいて、前記第2のオブジェクトが、前記手術計画に従って前記標的体積を治療することに対する障害物であるかどうかを判定することと、
前記第2のオブジェクトが前記手術計画にとっての障害物であると判定することに応答して、前記手術計画を修正すること、及び/又は通知をトリガすること、及び/又は手術ナビゲーションを停止することと、
を行うように構成される、請求項2に記載のナビゲーションシステム。 - 前記第1のオブジェクトにトラッカが堅固に結合されており、前記コントローラは、
前記ローカライザを介して、前記ローカライザに特定的な第1の座標系で前記トラッカの位置を検出することと、
前記第1の座標系における前記トラッカの前記検出位置、及び前記第1の座標系における前記トラッカと前記第1のオブジェクトとの位置関係に基づいて、前記第1の座標系における前記仮想モデルの位置を特定することと、
前記第1の座標系での前記仮想モデルの前記位置と、第2の座標系での前記ローカライザと前記視覚デバイスとの位置関係とに基づいて、前記第1の座標系における前記仮想モデルの前記位置を、前記視覚デバイスに特定的な前記第2の座標系における前記仮想モデルの位置に変換することと、
前記第2の座標系での前記仮想モデルの前記位置に基づいて、前記予想深度マップを生成することと、
を行うように構成される、請求項1~3のいずれか1項に記載のナビゲーションシステム。 - 前記コントローラは、
前記実深度マップと前記予想深度マップとの差分を計算することと、
前記差分の第1のセクションが閾値深度よりも大きい絶対深度を示すかどうかを判定することと、
前記差分の前記第1のセクションが閾値深度よりも大きい絶対深度を示すと判定することに応答して、前記差分の前記第1のセクションに対応する前記実深度マップの第2のセクションを前記部分として特定することと、
を行うように構成されることにより、前記予想深度マップと一致しない前記実深度マップの部分を特定するように構成される、請求項1~4のいずれか1項に記載のナビゲーションシステム。 - 前記閾値深度はゼロではない、請求項5に記載のナビゲーションシステム。
- 前記コントローラは、
前記第1のセクションのサイズが最小サイズ閾値よりも大きいかどうかを判定することと、
前記第1のセクションの前記サイズが前記最小サイズ閾値よりも大きいと前記判定することに応答して、前記第2のセクションを前記部分として特定することと、
を行うように構成されることにより、前記予想深度マップと一致しない前記実深度マップの前記部分を特定するように構成される、請求項5又は請求項6に記載のナビゲーションシステム。 - 前記コントローラは、前記特定された部分を前記第2のオブジェクトに対応する所定のプロファイルと一致させるように構成されることにより、前記特定された部分に基づいて前記第2のオブジェクトを認識するように構成される、請求項1~7のいずれか1項に記載のナビゲーションシステム。
- 前記実深度マップの前記部分は、前記第2のオブジェクトに対応し、前記実深度マップの第1の位置に配置された特徴の配列を含み、前記コントローラは、前記特徴の配列が、前記視覚デバイスによって後で生成される追加の実深度マップでの前記第1の位置とは異なる第2の位置に移動するかどうかを監視することにより、前記第2のオブジェクトの移動を追跡するように構成される、請求項1~8のいずれか1項に記載のナビゲーションシステム。
- 前記コントローラは、前記共通座標系の前記第2のオブジェクトに対応する仮想境界を生成するように構成され、前記仮想境界は手術具の動きに対して制約を与える、請求項1~9のいずれか1項に記載のナビゲーションシステム。
- 前記コントローラは、前記仮想モデル、前記第1のオブジェクトの前記検出位置、及び共通座標系での前記ローカライザと前記視覚デバイスとの前記位置関係に基づいて、前記実深度マップを関心領域にトリミングするように構成され、前記コントローラは、前記トリミングされた実深度マップを比較するように構成されることにより、前記実深度マップを比較するように構成される、請求項1~10のいずれか1項に記載のナビゲーションシステム。
- 前記コントローラは、
前記ローカライザ及び前記視覚デバイスの視界内の表面にパターンを投影することと、
前記ローカライザに特定的な第1の座標系における前記パターンの位置を示す前記ローカライザを用いて位置特定データを生成することと、
前記視覚デバイスによって生成された前記投影パターンを示す較正深度マップを受け取ることと、
前記較正深度マップに基づいて、前記視覚デバイスに特定的な第2の座標系における前記投影パターンの位置を特定することと、
前記第1の座標系における前記パターンの前記位置と前記第2の座標系における前記パターンの前記位置とに基づいて、前記共通座標系における前記ローカライザと前記視覚デバイスとの前記位置関係を特定することと、
を行うように構成されることにより、前記共通座標系における前記ローカライザと前記視覚デバイスとの前記位置関係を特定するように構成される、請求項1~11のいずれか1項に記載のナビゲーションシステム。 - 前記ローカライザは、第1のスペクトル帯で動作して、前記第1のオブジェクトの前記位置を検出するように構成されており、前記視覚デバイスは、第2のスペクトル帯で動作して、前記第1のオブジェクトの近傍の前記表面の前記実深度マップを生成するように構成されており、前記第1のスペクトル帯は前記第2のスペクトル帯とは異なる、請求項1~12のいずれか1項に記載のナビゲーションシステム。
- 請求項1~13のいずれか1項に記載のナビゲーションシステムで利用されるロボットマニピュレータであって、前記ロボットマニピュレータは、手術具を支持し、複数のリンクと、前記リンクを動かして前記手術具を動かすように構成された複数のアクチュエータとを備え、前記ロボットマニピュレータは、前記第2のオブジェクトを回避するように制御される、前記ロボットマニピュレータ。
- 第1のオブジェクトの位置を検出するように構成されたローカライザと、前記第1のオブジェクトの近傍の表面の実深度マップを生成するように構成された視覚デバイスと、前記ローカライザ及び前記視覚デバイスに結合されたコントローラとを含むナビゲーションシステムを動作させる方法であって、前記方法は、
前記第1のオブジェクトに対応する仮想モデルにアクセスすることと、
共通座標系で前記ローカライザと前記視覚デバイスとの位置関係を特定することと、
前記第1のオブジェクトの前記検出位置、前記仮想モデル、及び前記位置関係に基づいて、前記視覚デバイスの予想深度マップを生成することと、
前記予想深度マップと一致しない前記実深度マップの部分を特定することと、
前記特定された部分に基づいて第2のオブジェクトを認識することと
を含む、前記方法。 - 前記第1のオブジェクトの前記検出位置、前記実深度マップにおける前記第2のオブジェクトの場所、及び前記位置関係に基づいて、前記共通座標系における前記第1のオブジェクトに対する前記第2のオブジェクトの位置を特定することをさらに含む、請求項15に記載の方法。
- 前記第1のオブジェクトは、手術計画に従って治療すべき患者組織の標的体積を画定しており、
前記共通座標系における前記標的体積に対する前記第2のオブジェクトの前記位置と前記手術計画とに基づいて、前記第2のオブジェクトが、前記手術計画に従って前記標的体積を治療することに対する障害物であるかどうかを判定することと、
前記第2のオブジェクトが前記手術計画にとっての障害物であると判定することに応答して、前記手術計画を修正すること、及び/又は通知をトリガすること、及び/又は手術ナビゲーションを停止することと、
をさらに含む、請求項16に記載の方法。 - 前記第1のオブジェクトにトラッカが堅固に結合されており、
前記ローカライザを介して、前記ローカライザに特定的な第1の座標系で前記トラッカの位置を検出することと、
前記第1の座標系における前記トラッカの前記検出位置、及び前記第1の座標系における前記トラッカと前記第1のオブジェクトとの位置関係に基づいて、前記第1の座標系における前記仮想モデルの位置を特定することと、
前記第1の座標系での前記仮想モデルの前記位置と、第2の座標系での前記ローカライザと前記視覚デバイスとの位置関係とに基づいて、前記第1の座標系における前記仮想モデルの前記位置を、前記視覚デバイスに特定的な前記第2の座標系における前記仮想モデルの位置に変換することと、
前記第2の座標系での前記仮想モデルの前記位置に基づいて、前記予想深度マップを生成することと、
をさらに含む、請求項15~17のいずれか1項に記載の方法。 - 前記予想深度マップと一致しない前記実深度マップの部分を特定することは、
前記実深度マップと前記予想深度マップとの差分を計算することと、
前記差分の第1のセクションが閾値深度よりも大きい絶対深度を示すかどうかを判定することと、
前記差分の前記第1のセクションが閾値深度よりも大きい絶対深度を示すと判定することに応答して、前記差分の前記第1のセクションに対応する前記実深度マップの第2のセクションを前記部分として特定することと
を含む、請求項15~18のいずれか1項に記載の方法。 - 前記閾値深度はゼロではない、請求項19に記載の方法。
- 前記予想深度マップと一致しない前記実深度マップの部分を特定することは、
前記第1のセクションのサイズが最小サイズ閾値よりも大きいかどうかを判定することと、
前記第1のセクションの前記サイズが前記最小サイズ閾値よりも大きいと前記判定することに応答して、前記第2のセクションを前記部分として特定することと
を含む、請求項19又は請求項20に記載の方法。 - 前記特定された部分に基づいて前記第2のオブジェクトを認識することは、前記特定された部分を前記第2のオブジェクトに対応する所定のプロファイルと一致させることを含む、請求項15~21のいずれか1項に記載の方法。
- 前記実深度マップの前記部分は、前記第2のオブジェクトに対応し、前記実深度マップの第1の位置に配置された特徴の配列を含み、前記コントローラは、前記特徴の配列が、前記視覚デバイスによって後で生成される追加の実深度マップでの前記第1の位置とは異なる第2の位置に移動するかどうかを監視することにより、前記第2のオブジェクトの移動を追跡するように構成される、請求項15~22のいずれか1項に記載の方法。
- 前記共通座標系の前記第2のオブジェクトに対応する仮想境界を生成することをさらに含み、前記仮想境界は手術具の動きに対して制約を与える、請求項15~23のいずれか1項に記載の方法。
- 前記仮想モデル、前記第1のオブジェクトの前記検出位置、及び共通座標系での前記ローカライザと前記視覚デバイスとの前記位置関係に基づいて、前記実深度マップを関心領域にトリミングすることをさらに含み、前記実深度マップを比較することは、前記トリミングされた実深度マップを比較することを含む、請求項15~24のいずれか1項に記載の方法。
- 前記共通座標で前記ローカライザと前記視覚デバイスとの前記位置関係を特定することは、
前記ローカライザ及び前記視覚デバイスの視界内の表面にパターンを投影することと、
前記ローカライザに特定的な第1の座標系における前記パターンの位置を示す前記ローカライザを用いて位置特定データを生成することと、
前記視覚デバイスによって生成された前記投影パターンに対応する較正深度マップを受け取ることと、
前記較正深度マップに基づいて、前記視覚デバイスに特定的な第2の座標系における前記投影パターンの位置を特定することと、
前記第1の座標系における前記パターンの前記位置と前記第2の座標系における前記パターンの前記位置とに基づいて、前記共通座標系における前記ローカライザと前記視覚デバイスとの前記位置関係を特定することと
を含む、請求項15~25のいずれか1項に記載の方法。 - 前記ローカライザを第1のスペクトル帯で動作させて、前記第1のオブジェクトの前記位置を検出することと、
前記視覚デバイスを第2のスペクトル帯で動作させて、前記第1のオブジェクトの近傍の前記表面の前記実深度マップを生成することであって、前記第2のスペクトル帯は、前記第1のスペクトル帯とは異なる、前記生成することと、
をさらに含む、請求項15~26のいずれか1項に記載の方法。 - 1つ以上のプロセッサによって実行されるとき、請求項15~27のいずれか1項に記載の方法を実施するように構成された命令が格納された非一時的なコンピュータ可読媒体を含む、コンピュータプログラム製品。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023158428A JP2023179543A (ja) | 2019-07-03 | 2023-09-22 | 手術ナビゲーションのための障害物回避技法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962870284P | 2019-07-03 | 2019-07-03 | |
US62/870,284 | 2019-07-03 | ||
PCT/US2020/040717 WO2021003401A1 (en) | 2019-07-03 | 2020-07-02 | Obstacle avoidance techniques for surgical navigation |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023158428A Division JP2023179543A (ja) | 2019-07-03 | 2023-09-22 | 手術ナビゲーションのための障害物回避技法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022538666A true JP2022538666A (ja) | 2022-09-05 |
JP7356523B2 JP7356523B2 (ja) | 2023-10-04 |
Family
ID=71895196
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021578151A Active JP7356523B2 (ja) | 2019-07-03 | 2020-07-02 | 手術ナビゲーションのための障害物回避技法 |
JP2023158428A Pending JP2023179543A (ja) | 2019-07-03 | 2023-09-22 | 手術ナビゲーションのための障害物回避技法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023158428A Pending JP2023179543A (ja) | 2019-07-03 | 2023-09-22 | 手術ナビゲーションのための障害物回避技法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20220117682A1 (ja) |
EP (1) | EP3993725A1 (ja) |
JP (2) | JP7356523B2 (ja) |
KR (1) | KR20220031576A (ja) |
CN (1) | CN114173699A (ja) |
AU (1) | AU2020300612A1 (ja) |
WO (1) | WO2021003401A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110192390A (zh) | 2016-11-24 | 2019-08-30 | 华盛顿大学 | 头戴式显示器的光场捕获和渲染 |
US11583345B2 (en) * | 2020-04-24 | 2023-02-21 | Smith & Nephew, Inc. | Optical tracking device with built-in structured light module |
EP4178479A1 (en) * | 2020-07-08 | 2023-05-17 | Smith&Nephew, Inc. | Easy to manufacture autoclavable led for optical tracking |
US11295460B1 (en) | 2021-01-04 | 2022-04-05 | Proprio, Inc. | Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene |
EP4082469B8 (en) * | 2021-04-26 | 2023-11-29 | Institut National de la Santé et de la Recherche Médicale | Automatic determination of an appropriate positioning of a patient-specific instrumentation with a depth camera |
CN113476141B (zh) * | 2021-06-30 | 2023-02-10 | 苏州微创畅行机器人有限公司 | 位姿控制方法及其适用的光学导航系统、手术机器人系统 |
US12016642B2 (en) | 2021-09-08 | 2024-06-25 | Proprio, Inc. | Constellations for tracking instruments, such as surgical instruments, and associated systems and methods |
US20230277256A1 (en) * | 2022-03-02 | 2023-09-07 | Mako Surgical Corp. | Robotic System Including A Link Tracker |
US11464573B1 (en) * | 2022-04-27 | 2022-10-11 | Ix Innovation Llc | Methods and systems for real-time robotic surgical assistance in an operating room |
CN116077182B (zh) * | 2022-12-23 | 2024-05-28 | 北京纳通医用机器人科技有限公司 | 一种医用手术机器人控制方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160191887A1 (en) * | 2014-12-30 | 2016-06-30 | Carlos Quiles Casas | Image-guided surgery with surface reconstruction and augmented reality visualization |
US20160242858A1 (en) * | 2015-02-25 | 2016-08-25 | Mako Surgical Corp. | Navigation Systems And Methods For Reducing Tracking Interruptions During A Surgical Procedure |
US20170189125A1 (en) * | 2015-12-31 | 2017-07-06 | Stryker Corporation | System And Methods For Performing Surgery On A Patient At A Target Site Defined By A Virtual Object |
WO2017205351A1 (en) * | 2016-05-23 | 2017-11-30 | Mako Surgical Corp. | Systems and methods for identifying and tracking physical objects during a robotic surgical procedure |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010034530A1 (en) | 2000-01-27 | 2001-10-25 | Malackowski Donald W. | Surgery system |
US20140031668A1 (en) * | 2010-09-08 | 2014-01-30 | Disruptive Navigational Technologies, Llc | Surgical and Medical Instrument Tracking Using a Depth-Sensing Device |
US9119655B2 (en) | 2012-08-03 | 2015-09-01 | Stryker Corporation | Surgical manipulator capable of controlling a surgical instrument in multiple modes |
AU2014207502B2 (en) | 2013-01-16 | 2018-10-18 | Stryker Corporation | Navigation systems and methods for indicating line-of-sight errors |
-
2020
- 2020-07-02 KR KR1020217043422A patent/KR20220031576A/ko not_active Application Discontinuation
- 2020-07-02 WO PCT/US2020/040717 patent/WO2021003401A1/en unknown
- 2020-07-02 EP EP20750024.0A patent/EP3993725A1/en active Pending
- 2020-07-02 JP JP2021578151A patent/JP7356523B2/ja active Active
- 2020-07-02 AU AU2020300612A patent/AU2020300612A1/en active Pending
- 2020-07-02 CN CN202080054277.6A patent/CN114173699A/zh active Pending
-
2021
- 2021-12-29 US US17/564,717 patent/US20220117682A1/en active Pending
-
2023
- 2023-09-22 JP JP2023158428A patent/JP2023179543A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160191887A1 (en) * | 2014-12-30 | 2016-06-30 | Carlos Quiles Casas | Image-guided surgery with surface reconstruction and augmented reality visualization |
US20160242858A1 (en) * | 2015-02-25 | 2016-08-25 | Mako Surgical Corp. | Navigation Systems And Methods For Reducing Tracking Interruptions During A Surgical Procedure |
JP2018506352A (ja) * | 2015-02-25 | 2018-03-08 | マコ サージカル コーポレーション | 外科手術中の追跡中断を低減するナビゲーションシステム及び方法 |
US20170189125A1 (en) * | 2015-12-31 | 2017-07-06 | Stryker Corporation | System And Methods For Performing Surgery On A Patient At A Target Site Defined By A Virtual Object |
JP2019501718A (ja) * | 2015-12-31 | 2019-01-24 | ストライカー・コーポレイション | 仮想オブジェクトにより規定される患者の標的部位に対して外科手術を行うシステムおよび方法 |
WO2017205351A1 (en) * | 2016-05-23 | 2017-11-30 | Mako Surgical Corp. | Systems and methods for identifying and tracking physical objects during a robotic surgical procedure |
JP2019523664A (ja) * | 2016-05-23 | 2019-08-29 | マコ サージカル コーポレーション | ロボット外科処置中に物理的オブジェクトの識別と追跡を行うシステムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7356523B2 (ja) | 2023-10-04 |
JP2023179543A (ja) | 2023-12-19 |
WO2021003401A1 (en) | 2021-01-07 |
US20220117682A1 (en) | 2022-04-21 |
KR20220031576A (ko) | 2022-03-11 |
EP3993725A1 (en) | 2022-05-11 |
AU2020300612A1 (en) | 2022-02-03 |
CN114173699A (zh) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7356523B2 (ja) | 手術ナビゲーションのための障害物回避技法 | |
CN109152615B (zh) | 在机器人手术过程期间识别和跟踪物理对象的系统和方法 | |
US11844574B2 (en) | Patient-specific preoperative planning simulation techniques | |
CN108472096B (zh) | 用于在由虚拟对象限定的目标部位处对患者执行手术的系统和方法 | |
EP1504399B1 (en) | Methods and systems to control a shaping tool | |
CN104994805B (zh) | 用于建立虚拟约束边界的系统和方法 | |
US20230165649A1 (en) | A collaborative surgical robotic platform for autonomous task execution | |
US20220370150A1 (en) | Optimization Of Tracker-Based Surgical Navigation | |
JP2024095686A (ja) | 仮想オブジェクトにより規定される患者の標的部位に対して外科手術を行うシステムおよび方法 | |
WO2022234566A1 (en) | Devices, methods, and systems for robot-assisted surgery | |
CN117320655A (zh) | 用于机器人辅助手术的装置、方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230310 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230922 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7356523 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |