KR102216509B1 - 광학 및 비광학 센서를 포함하는 네비게이션 시스템 - Google Patents
광학 및 비광학 센서를 포함하는 네비게이션 시스템 Download PDFInfo
- Publication number
- KR102216509B1 KR102216509B1 KR1020197011736A KR20197011736A KR102216509B1 KR 102216509 B1 KR102216509 B1 KR 102216509B1 KR 1020197011736 A KR1020197011736 A KR 1020197011736A KR 20197011736 A KR20197011736 A KR 20197011736A KR 102216509 B1 KR102216509 B1 KR 102216509B1
- Authority
- KR
- South Korea
- Prior art keywords
- marker
- markers
- coordinate system
- tracker
- optical
- Prior art date
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 166
- 238000000034 method Methods 0.000 claims abstract description 72
- 239000003550 marker Substances 0.000 claims abstract description 62
- 239000013598 vector Substances 0.000 claims description 56
- 230000001133 acceleration Effects 0.000 claims description 16
- 238000001356 surgical procedure Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 8
- 230000000903 blocking effect Effects 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 claims 2
- 210000000988 bone and bone Anatomy 0.000 description 38
- 238000005520 cutting process Methods 0.000 description 37
- 230000004807 localization Effects 0.000 description 30
- 238000005259 measurement Methods 0.000 description 27
- 210000000689 upper leg Anatomy 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 11
- 210000002303 tibia Anatomy 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 9
- 239000007943 implant Substances 0.000 description 7
- 238000005070 sampling Methods 0.000 description 7
- 230000001276 controlling effect Effects 0.000 description 6
- 230000002596 correlated effect Effects 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- QQAHEGDXEXIQPR-UHFFFAOYSA-N 2-(ethylamino)-1-phenylpentan-1-one Chemical compound CCCC(NCC)C(=O)C1=CC=CC=C1 QQAHEGDXEXIQPR-UHFFFAOYSA-N 0.000 description 5
- 102100032262 E2F-associated phosphoprotein Human genes 0.000 description 5
- 101710155837 E2F-associated phosphoprotein Proteins 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 238000002266 amputation Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000002591 computed tomography Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 230000007123 defense Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000004417 patella Anatomy 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001954 sterilising effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/06—Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
- A61B5/061—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
- A61B5/064—Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00115—Electrical control of surgical instruments with audible or visual output
- A61B2017/00119—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation
- A61B2017/00123—Electrical control of surgical instruments with audible or visual output alarm; indicating an abnormal situation and automatic shutdown
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
- A61B2034/2053—Tracking an applied voltage gradient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/08—Accessories or related features not otherwise provided for
- A61B2090/0818—Redundant systems, e.g. using two independent measuring systems and comparing the signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
- A61B2090/3945—Active visible markers, e.g. light emitting diodes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
물체의 위치 및/또는 방향을 결정하기 위해 광학 센서 및 비광학 센서를 이용하는 시스템 및 방법. 네비게이션 시스템은 마커로부터 광학 신호를 수신하기 위한 광학 센서 및 비광학 데이터를 생성하기 위한 자이로스코프와 같은 비광학 센서를 포함한다. 네비게이션 컴퓨터는 광학 및 비광학 데이터에 기초하여 물체의 위치 및/또는 방향을 결정한다.
Description
관련 출원
본 출원은 그 전체 내용이 참조로서 여기에 통합되는, 2012년 9월 26일자로 출원된 미국 가특허출원 제61/705,804호 및 2013년 9월 24일자로 출원된 미국 가특허출원 제14/035207호의 우선권 및 이익을 주장한다.
본 발명은 일반적으로 시간의 경과에 따라 물체의 위치 및/또는 방향의 변화를 결정함으로써 공간에서 물체를 추적하는 네비게이션 시스템에 관한 것이다. 더욱 구체적으로, 본 발명은 물체의 위치 및/또는 방향을 결정하기 위해 광학 센서 및 비광학 센서를 이용하는 네비게이션 시스템에 관한 것이다.
네비게이션 시스템은 유저가 정밀하게 물체를 위치 결정하는 것을 지원한다. 예를 들어, 네비게이션 시스템은 산업, 항공우주, 방위, 및 의료 어플리케이션에 사용된다. 의료 분야에서, 네비게이션 시스템은 의사가 환자의 신체에 대해 수술 도구를 정밀하게 위치시키는 것을 돕는다.
네비게이션 시스템이 사용되는 수술은 신경외과 수술 및 정형외과 수술을 포함한다. 종종 기구와 신체가 디스플레이 상에 보여지는 그 상대적 이동과 함께 추적된다. 네비게이션 시스템은 신체의 수술 전 이미지 또는 수술 중 이미지와 함께 이동하는 기구를 표시할 수 있다. 수술 전 이미지는 통상적으로 MRI 또는 CT 스캔에 의해 준비되며, 수술 중 이미지는 형광 투시경, 로우 레벨 x-선 또는 임의의 유사한 디바이스를 이용하여 준비될 수 있다. 대안적으로, 일부 시스템은, 환자의 신체가 네비게이션 탐침에 의해 "페인팅되고" 표시를 위해 해부학적 모델로 수학적으로 맞추어지는 이미지가 없는 것이다.
네비게이션 시스템은 기구 및 신체의 위치 및/또는 방향을 추적하기 위하여 광학 신호, 음향파, 자기장, RF 신호 등을 채용할 수 있다. 광학 네비게이션 시스템이 이러한 시스템의 정확도로 인해 폭넓게 사용된다.
종래 기술의 네비게이션 시스템은 (전하 결합 소자 즉 CCD와 같은) 하나 이상의 광학 센서를 하우징하는 하나 이상의 카메라를 통상적으로 포함한다. 광학 센서는 기구 및 신체에 부착된 추적기로부터 방출되는 광을 검출한다. 각각의 추적기는 LED의 위치를 결정하기 위해 주기적으로 광을 센서에 송신하는 발광 다이오드(LED)와 같은 복수의 발광기를 갖는다.
기구 추적기 상의 LED의 위치는 카메라 좌표계에 대해 기구의 워킹 엔드(working end)의 좌표에 상관된다. 신체 추적기(들) 상의 LED의 위치는 카메라 좌표계에 대해 3차원 공간에서 신체의 타겟 영역의 좌표에 상관된다. 따라서, 신체의 타겟 영역에 대한 기구의 워킹 엔드의 위치 및/또는 방향이 추적 및 표시될 수 있다.
네비게이션 시스템은 수술 기구의 이동을 제어하기 위해 폐쇄 루프 방식으로 사용될 수 있다. 이러한 네비게이션 시스템에서, 네비게이션 시스템이 그 위치 및 방향을 추적할 수 있도록, 기구 및 치료되고 있는 신체 양쪽은 추적기가 갖추어져 있다. 그 후, 네비게이션 시스템으로부터의 정보는 기구의 이동을 제어하거나 안내하기 위해 제어 시스템으로 공급된다. 일부 경우에, 기구는 로봇에 의해 보유되고, 정보는 네비게이션 시스템으로부터 로봇의 제어 시스템으로 전송된다.
제어 시스템이 기구와 치료 중인 신체 사이의 상대적 이동을 신속하게 확인하기 위하여, 네비게이션 시스템의 정확도 및 속도는 절차의 원하는 공차를 충족시켜야 한다. 예를 들어, 무시멘트 무릎 임플란트와 연관된 공차는 임플란트의 정확한 맞춤 및 기능을 보장하기 위해 매우 작을 수 있다. 따라서, 네비게이션 시스템의 정확도 및 속도는 더욱 거친 절단 절차에서보다 훨씬 더 클 필요가 있을 수 있다.
광학 네비게이션 시스템의 정확도 및 속도에 대한 제약 중 하나는, 그 시스템이 LED와 카메라의 광학 센서 사이의 시선에 의존한다는 것이다. 시선이 깨지면, 시스템은 기구와 치료 중인 신체의 위치 및/또는 방향을 정확하게 결정하지 못할 수 있다. 그 결과, 수술은 많은 시작과 중단에 직면할 수 있다. 예를 들어, 로봇으로 지원되는 절단의 제어 중에, 시선이 깨어졌을 때, 절단 툴은 시선이 회복될 때까지 불능화되어야 한다. 이것은 절차에 상당한 지연과 추가된 비용을 야기할 수 있다.
정확도에 대한 다른 제약은 추적기 상의 능동 LED를 사용할 때 발생한다. 이러한 시스템에서, LED는 종종 순차적으로 점등된다. 이 경우에, 능동적으로 점등된 LED의 위치만이 측정되고 시스템에 의해 알려지며, 나머지 측정되지 않은 LED의 위치는 알려지지 않는다. 이러한 시스템에서, 나머지 측정되지 않은 LED의 위치는 근사화된다. 근사화는 보통 현재 측정되지 않은 LED의 최후에 알려진 측정 위치로부터 외삽된 선형 속도 데이터에 기초한다. 하지만, LED가 순차적으로 점등되므로, 임의의 하나의 LED의 측정 사이에 상당한 지연이 있을 수 있다. 이러한 지연은 시스템에서 사용되는 각각의 추가적인 추적기로 증가한다. 또한, 이러한 근사화는 추적기의 회전을 고려하지 않으므로, 추적기에 대한 위치 데이터의 추가적으로 가능한 오차로 귀결된다.
그 결과, 본 기술 분야에서 추가적인 비광학 기반 데이터를 이용하는 광학 네비게이션 시스템이 로봇으로 지원되는 수술 절단과 같은 정밀한 수술 절차에 대해 물체의 위치 및/또는 방향을 결정하는 정확도 및 속도의 레벨을 제공하고 추적을 향상시키는 것이 필요하다.
본 발명은 물체의 위치 및/또는 방향을 결정하기 위하여 광학 센서 및 비광학 센서를 이용하는 시스템 및 방법에 관한 것이다.
본 발명의 하나의 버전에서 물체를 추적하기 위해 네비게이션 시스템이 제공된다. 네비게이션 시스템은 추적기 상의 하나 이상의 마커로부터 광학 신호를 수신하는 광학 센서를 포함한다. 또한, 추적기는 비광학 신호를 생성하는 비광학 센서를 포함한다. 컴퓨팅 시스템은 제1 광학 신호에 기초하여 제1 시간에서 마커들 중 하나의 위치를 결정한다. 또한, 컴퓨팅 시스템은 제1 광학 신호와 비광학 센서로부터의 비광학 신호에 기초하여 제1 시간에 하나 이상의 다른 마커들의 위치를 결정한다. 결정된 위치는 그 후에 물체의 위치를 추적하기 위하여 물체에 상관된다.
본 발명의 다른 버전에서, 네비게이션 시스템이 물체를 추적하기 위해 제공된다. 네비게이션 시스템은 추적기 상의 3개의 마커로부터 순차적으로 광학 신호를 수신하는 광학 센서를 포함한다. 또한, 추적기는 비광학 신호를 생성하는 비광학 센서를 포함한다. 컴퓨팅 시스템은 제1 마커로부터의 제1 광학 신호에 기초하여 제1 시간에서 마커들의 제1 마커의 위치를 결정한다. 또한, 컴퓨팅 시스템은 비광학 센서로부터의 비광학 신호와 제1 광학 신호에 기초하여 제1 시간에 마커들의 제2 마커 및 제3 마커의 위치를 결정한다. 결정된 위치는 그 후 물체의 위치를 추적하기 위해 물체에 상관된다.
본 발명의 또 다른 버전에서, 로봇식 수술 절단 시스템이 제공된다. 시스템은 로봇식 조작자 및 절단 툴을 포함한다. 로봇식 제어 시스템은 적어도 5도의 자유도로 절단 툴의 이동을 제어 또는 제한한다. 네비게이션 시스템은 로봇식 제어 시스템과 통신한다. 네비게이션 시스템은 적어도 하나의 광학 센서와 로봇식 조작자에 장착된 추적기를 포함한다. 또한, 추적기가 환자의 신체에 대한 장착을 위해 제공된다. 이러한 신체 추적기는 3개의 마커와 비광학 센서를 포함한다. 광학 센서는 마커로부터 광학 신호를 수신하고, 비광학 센서는 비광학 신호를 생성한다. 네비게이션 시스템은, 절단이 미리 규정된 경계 내에서 일어나도록 신체의 절단을 제어하기 위해 로봇식 제어 시스템으로 신체의 위치를 나타내는 위치 데이터를 전달한다.
본 발명의 또 다른 버전에서, 적어도 하나의 광학 센서를 갖는 로컬라이저를 포함하는 네비게이션 시스템이 제공된다. 추적기는 광학 센서와 통신한다. 추적기는 3개의 마커와 비광학 센서를 포함한다. 컴퓨팅 시스템은 광학 신호 및 비광학 신호에 기초하여 로컬라이저 좌표계에서 3개의 마커 각각의 위치를 결정한다. 컴퓨팅 시스템은 로컬라이저 좌표계에서의 하나 이상의 마커들의 결정된 위치들과 추적기 좌표계에 대해 확립된 추적기의 모델에서의 하나 이상의 마커들의 위치를 매칭하는 매칭 알고리즘을 수행하여 추적기 좌표계를 로컬라이저 좌표계로 변환하는 변환 행렬을 얻는다.
본 발명의 또 다른 버전에서, 물체를 추적하기 위한 시스템이 제공된다. 시스템은 적어도 2개의 광학 센서와 물체에 장착하기 위한 추적기를 포함한다. 추적기는 3개의 마커와 비광학 센서를 갖는다. 적어도 2개의 광학 센서는 적어도 100Hz의 광학 감지 주파수에서 마커들로부터 광학 신호를 수신한다. 비광학 센서는 적어도 100Hz의 비광학 감지 주파수에서 비광학 신호를 생성한다.
물체를 추적하기 위한 방법이 또한 제공된다. 본 방법은 마커로부터 순차적으로 광학 신호를 수신하도록 광학 센서를 동작시키는 단계와 비광학 신호를 생성하도록 비광학 센서를 동작시키는 단계를 포함한다. 제1 시간에서 마커들의 제1 마커의 위치는 제1 마커로부터의 제1 광학 신호에 기초하여 결정된다. 제1 시간에서 마커들의 제2 마커 및 제3 마커의 위치는 제1 광학 신호와 비광학 센서로부터의 비광학 신호에 기초하여 결정된다. 제1 마커, 제2 마커 및 제3 마커의 결정된 위치는 수술 절차 중에 물체의 위치를 추적하기 위해 물체에 상관된다.
수술 절차 중에 물체를 추적하기 위한 다른 방법이 제공된다. 본 발명에서, 광학 센서가 마커로부터 순차적으로 광학 신호를 수신하도록 3개의 마커가 광학 센서의 시야에 위치된다. 그러면 컴퓨팅 시스템은 제1 마커로부터의 제1 광학 신호에 기초하여 제1 시간에서 마커들의 제1 마커의 위치를 결정하고, 제1 광학 신호 및 비광학 센서로부터의 비광학 신호에 기초하여 제1 시간에서 마커들의 제2 마커 및 제3 마커의 위치를 결정한다. 그 위치는 그 후 수술 절차 중에 물체의 위치를 추적하기 위해 물체에 상관된다.
본 발명의 이점은, 첨부 도면과 함께 고려될 때 후술하는 상세한 설명을 참조하여 그 이점이 더욱 잘 이해되므로 용이하게 이해될 것이다:
도 1은 로봇식 조작자와 함께 사용 중인 본 발명의 네비게이션 시스템의 사시도이다.
도 2는 네비게이션 시스템의 개략도이다.
도 3은 네비게이션 시스템과 함께 사용되는 좌표계의 개략도이다.
도 4는 네비게이션 시스템의 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
도 4a는 변환 행렬을 얻기 위하여 측정된 LED와 추적기 모델을 매칭하는 개략도이다.
도 5는 제1 대안적인 실시예에서 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
도 5a는 실제 및 가상 LED를 포함하는 추적기 모델의 도면이다.
도 6은 제2 대안적인 실시예에서 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
도 7은 하나 이상의 LED가 측정으로부터 차단되었을 때 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
도 1은 로봇식 조작자와 함께 사용 중인 본 발명의 네비게이션 시스템의 사시도이다.
도 2는 네비게이션 시스템의 개략도이다.
도 3은 네비게이션 시스템과 함께 사용되는 좌표계의 개략도이다.
도 4는 네비게이션 시스템의 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
도 4a는 변환 행렬을 얻기 위하여 측정된 LED와 추적기 모델을 매칭하는 개략도이다.
도 5는 제1 대안적인 실시예에서 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
도 5a는 실제 및 가상 LED를 포함하는 추적기 모델의 도면이다.
도 6은 제2 대안적인 실시예에서 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
도 7은 하나 이상의 LED가 측정으로부터 차단되었을 때 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
Ⅰ. 개요
도 1을 참조하면 수술 네비게이션 시스템(20)이 나타내어진다. 시스템(20)은 의료 시설의 수술실과 같은 수술 준비에서 도시된다. 네비게이션 시스템(20)은 수술실에서 다양한 물체의 이동을 추적하기 위해 설정된다. 이러한 물체는 예를 들어, 수술 도구(22), 환자의 대퇴골 F 및 환자의 경골 T를 포함한다. 네비게이션 시스템(20)은 의사에게 이들의 상대적 위치 및 방향을 표시할 목적으로, 그리고 일부 경우에 미리 규정된 경로 또는 해부학적 경계에 대한 수술 기구(22)의 이동을 제어 또는 제약할 목적으로 이러한 물체를 추적한다.
수술 네비게이션 시스템(20)은 네비게이션 컴퓨터(26)를 하우징하는 컴퓨터 카트 조립체를 포함한다. 네비게이션 인터페이스는 네비게이션 컴퓨터(26)와 통신하여 동작한다. 네비게이션 인터페이스는 살균 필드의 이부에 위치되도록 구성된 디스플레이(28)와 살균 필드의 내부에 위치되도록 구성된 디스플레이(29)를 포함한다. 디스플레이(28, 29)는 컴퓨터 카트 조립체(24)에 조정가능하게 장착된다. 마우스 및 키보드와 같은 입력 디바이스(30, 32)는 네비게이션 컴퓨터(26)로 정보를 입력하거나 아니면 네비게이션 컴퓨터(26)의 특정 양태를 선택/제어하는 데 사용될 수 있다. 디스플레이(28, 29) 상의 터치 스크린(미도시) 또는 음성 구동을 포함하는 다른 입력 디바이스가 고려된다.
로컬라이저(34)는 네비게이션 컴퓨터(26)와 통신한다. 도시된 실시예에서, 로컬라이저(34)는 광학 로컬라이저이고 카메라 유닛(36)을 포함한다. 카메라 유닛(36)은 하나 이상의 광학 센서(40)를 하우징하는 외부 케이싱(38)을 갖는다. 일부 실시예에서, 적어도 2개의 광학 센서(40), 바람직하게는 3개가 채용된다. 광학 센서(40)는 3개의 별개의 고해상도 전하 결합 소자(CCD)일 수 있다. 일 실시예에서, 3개의 1차원 CCD가 채용된다. 다른 실시예에서는 별개의 CCD, 또는 2개 이상의 CCD를 각각 갖는 별개의 카메라 유닛이 또한 수술실 주위에 배치될 수 있다. CCD는 적외선(IR) 신호를 검출한다.
카메라 유닛(36)은 이상적으로는 장애가 없는 후술하는 추적기의 시야를 카메라 유닛(36)에 제공하기 위해 절차가 행해지는 존 위에 광학 센서(40)를 위치 결정하기 위해 조정가능한 아암 상에 장착된다.
카메라 유닛(36)은 광학 센서(40)로부터 신호를 수신하기 위해 광학 센서(40)와 통신하는 카메라 컨트롤러(42)를 포함한다. 카메라 컨트롤러(42)는 유선 또는 무선 접속(미도시) 중 어느 하나를 통해 네비게이션 컴퓨터(26)와 통신한다. 이러한 접속은 고속 통신 및 동시성의 실시간 데이터 전송을 위한 직렬 버스 인터페이스 표준인 IEEE 1394 인터페이스일 수 있다. 또한, 접속은 회사 특정 프로토콜을 사용할 수 있다. 다른 실시예에서, 광학 센서(40)는 네비게이션 컴퓨터(26)와 직접 통신한다.
위치 및 방향 신호 및/또는 데이터는 물체를 추적하기 위해 네비게이션 컴퓨터(26)로 송신된다. 컴퓨터 카트 조립체(24), 디스플레이(28) 및 카메라 유닛(36)은 참조로써 여기에 통합되고, 발명의 명칭이 "Surgery System"이고 2010년 5월 25일 발행된 Malackowski 등의 미국 특허 제7,725,162호에 설명된 것과 같을 수 있다.
네비게이션 컴퓨터(26)는 퍼스널 컴퓨터 또는 랩탑 컴퓨터일 수 있다. 네비게이션 컴퓨터(26)는 디스플레이(28), 중앙 처리 장치(CPU) 및/또는 다른 프로세서, 메모리(미도시) 및 스토리지(미도시)를 갖는다. 네비게이션 컴퓨터(26)는 후술하는 바와 같이 소프트웨어로 로드된다. 소프트웨어는 카메라 유닛(36)으로부터 수신된 신호를 추적 중인 물체의 위치 및 방향을 나타내는 데이터로 변환한다.
네비게이션 시스템(20)은 추적기로서 여기에 칭해지기도 하는 복수의 추적 디바이스(44, 46, 48)를 포함한다. 나타낸 실시예에서, 하나의 추적기(44)는 환자의 대퇴골 F에 단단하게 부착되고, 다른 추적기(46)는 환자의 경골 T에 단단하게 부착된다. 추적기(44, 46)는 뼈의 단면에 단단하게 부착된다. 추적기(44, 46)는 여기에 참조로써 통합되는 미국 특허 제7,725,162호에 나타내어진 방식으로 대퇴골 F에 부착될 수 있다. 추가적인 실시예에서, 추가적인 추적기(미도시)가 슬개골의 위치 및 방향을 추적하기 위해 슬개골에 부착된다. 추가적인 실시예에서, 추적기(44, 46)가 다른 조직 유형 또는 신체의 일부에 장착될 수 있다.
기구 추적기(48)는 수술 기구(22)에 단단하게 부착된다. 기구 추적기(48)는 제조 중에 수술 기구(22)에 통합될 수 있거나, 수술 절차를 위한 준비에서 별개로 수술 기구(22)에 장착될 수 있다. 추적되고 있는 수술 기구(22)의 워킹 엔드는 회전 버(bur), 전기 절제 디바이스 등일 수 있다. 도시된 실시예에서, 수술 기구(22)는 수술 조작자의 엔드 이펙터(end effector)이다. 이러한 구성은 그 개시가 여기에 참조로써 통합되고, 발명의 명칭이 "Surgical Manipulator Capable of Controlling a Surgical Instrument in either a Semi-Autonomous Mode or a Manual, Boundary Constrained Mode"인 미국 가특허출원 제61/679,258호와, 또한 그 개시가 참조로써 여기에 통합되고 발명의 명칭이 "Navigation System for use with a Surgical Manipulator Operable in Manual or Semi-Autonomous Mode"인 미국 특허출원 제13/958,834호에 나타내어져 있다.
추적기(44, 46, 48)는 내부 배터리로 전력을 공급받는 배터리일 수 있거나, 카메라 유닛(36)과 같이 바람직하게는 외부 전력을 수신하는 네비게이션 컴퓨터(26)를 통해 전력을 수신하는 리드를 가질 수 있다.
다른 실시예에서, 수술 기구(22)는 임의의 절단 가이드, 지브(jib) 또는 조작자 또는 로봇과 같은 다른 제약 메커니즘의 도움 없이, 유저의 손에 의해서만 수동으로 위치 결정될 수 있다. 이러한 수술 도구는 여기에 참조로써 통합되고 발명의 명칭이 "Surgical Instrument Including Housing, a Cutting Accessory that Extends from the Housing and Actuators that Establish the Position of the Cutting Accessory Relative to the Housing"인 미국 가특허출원 제61/662,070호와, 또한 여기에 참조로써 통합되고 발명의 명칭이 "Surgical Instrument Including Housing, a Cutting Accessory that Extends from the Housing and Actuators that Establish the Position of the Cutting Accessory Relative to the Housing"인 미국 특허출원 제13/600,888호에 설명되어 있다.
로컬라이저(34)의 광학 센서(40)는 추적기(44, 46, 48)로부터 광학 신호를 수신한다. 나타낸 실시예에서, 추적기(44, 46, 48)는 능동 추적기이다. 본 실시예에서, 각각의 추적기(44, 46, 48)는 광학 센서(40)로 광학 신호를 송신하기 위해 적어도 3개의 능동 마커(50)를 갖는다. 능동 마커(50)는 발광 다이오드 즉 LED(50)일 수 있다. 광학 센서(40)는 바람직하게는 100Hz 이상의 샘플링 레이트를 가지며, 더욱 바람직하게는 300Hz 이상, 가장 바람직하게는 500Hz 이상의 샘플링 레이트를 갖는다. 일부 실시예에서, 광학 센서(40)는 1000Hz의 샘플링 레이트를 갖는다. 샘플링 레이트는, 광학 센서(40)가 순차적으로 점등되는 LED(50)로부터 광학 신호를 수신하는 레이트이다. 일부 실시예에서, LED(50)로부터의 광학 신호는 각각의 추적기(44, 46, 48)에 대해 상이한 레이트로 점등된다.
도 2를 참조하면, 각각의 LED(50)는 네비게이션 컴퓨터(26)로/로부터 데이터를 송신/수신하는 연관 추적기(44, 46, 48)의 하우징(미도시)에 위치된 추적기 컨트롤러(62)에 접속된다. 일 실시예에서, 추적기 컨트롤러(62)는 네비게이션 컴퓨터(26)와의 유선 접속을 통해 대략 수 메가바이트/초로 데이터를 송신한다. 다른 실시예에서, 무선 접속이 사용될 수 있다. 이러한 실시예에서, 네비게이션 컴퓨터(26)는 추적기 컨트롤러(62)로부터 데이터를 수신하기 위해 트랜시버(미도시)를 갖는다.
다른 실시예에서, 추적기(44, 46, 48)는 카메라 유닛(36)으로부터 방출된 광을 반사하는 반사기와 같은 수동 마커(미도시)를 가질 수 있다. 그러면, 반사된 광은 광학 센서(40)에 의해 수신된다. 능동 및 수동 구성은 본 기술분야에 잘 알려져 있다.
또한, 각각의 추적기(44, 46, 48)는 추적기(44, 46, 48)의 각속도를 측정하는 3차원 자이로스코프 센서(60)를 포함한다. 본 기술분야의 당업자에게 잘 알려져 있는 바와 같이, 자이로스코프 센서(60)는 자이로스코프 좌표계의 x-, y- 및 z- 축에 대한 각속도를 나타내는 판독을 출력한다. 이러한 판독은 자이로스코프 좌표계의 x-, y- 및 z- 축의 각각에 대하여 도(degree)/초로 측정을 얻기 위해 제조자에 의해 규정되는 변환 상수로 곱해진다. 이러한 측정은 그 후 라디안/초로 규정되는 각속도 벡터로 변환될 수 있다.
자이로스코프 센서(60)에 의해 측정된 각속도는 추적기(44, 46, 48)를 추적하는 네비게이션 시스템(20)에 대한 추가적인 비광학 기반 운동학 데이터를 제공한다. 자이로스코프 센서(60)는 추적기(44, 46, 48)의 각각의 좌표계의 축을 따라 배향될 수 있다. 다른 실시예에서, 각각의 자이로스코프 좌표계는 그 추적기 좌표계로 변환되어, 자이로스코프 데이터는 추적기(44, 46, 48)의 좌표계의 x-, y- 및 z- 축에 대한 각속도를 반영한다.
각각의 자이로스코프 센서(60)는 네비게이션 컴퓨터(26)로/로부터 데이터를 송신/수신하는 연관 추적기의 하우징 내에 위치되는 추적기 컨트롤러(62)와 통신한다. 네비게이션 컴퓨터(26)는 자이로스코프 센서(60)로부터 데이터를 수신하기 위해 하나 이상의 트랜시버(미도시)를 갖는다. 데이터는 유선 또는 무선 접속 중 어느 하나를 통해 수신될 수 있다.
자이로스코프 센서(60)는 바람직하게는 100Hz 이상의 샘플링 레이트를 가지며, 더욱 바람직하게는 300Hz 이상, 가장 바람직하게는 500Hz 이상의 샘플링 레이트를 갖는다. 일부 실시예에서, 자이로스코프 센서(60)는 1000Hz의 샘플링 레이트를 갖는다. 자이로스코프 센서(60)의 샘플링 레이트는 신호가 자이로스코프 센서(60)로부터 송신되어 각속도 데이터로 변환되는 레이트이다.
자이로스코프 센서(60) 및 광학 센서(40)의 샘플링 레이트가 확립 및 시간 설정되어, 위치의 각각의 측정에 대하여 각속도의 대응 비광학 측정이 존재한다.
또한, 각각의 추적기(44, 46, 48)는 가속도계 좌표계의 x-, y- 및 z- 축의 각각을 따라 가속도를 측정하는 3-축 가속도계(70)를 포함한다. 가속도계(70)는 추적기(44, 46, 48)를 추적하는 네비게이션 시스템(20)에 대해 추가적인 비광학 기반 데이터를 제공한다.
각각의 가속도계(70)는 네비게이션 컴퓨터(26)로/로부터 데이터를 송신/수신하는 연관 추적기의 하우징에 위치된 추적기 컨트롤러(62)와 통신한다. 네비게이션 컴퓨터의 하나 이상의 트랜시버(미도시)가 가속도계(70)로부터 데이터를 수신한다.
가속도계(70)는 추적기(44, 46, 48)의 각각의 좌표계의 축을 따라 배향될 수 있다. 다른 실시예에서, 이러한 가속도계 좌표계는 그 추적기 좌표계로 변환되어, 가속도계 데이터는 추적기(44, 46, 48)의 좌표계의 x-, y- 및 z- 축에 대하여 가속도를 반영한다.
네비게이션 컴퓨터(26)는 네비게이션 프로세서(52)를 포함한다. 카메라 유닛(36)은 추적기(44, 46, 48)의 LED(50)로부터 광학 신호를 수신하고, 로컬라이저(34)에 대해 추적기(44, 46, 48)의 LED(50)의 위치에 대한 신호를 프로세서(52)에 출력한다. 자이로스코프 센서(60)는 자이로스코프 센서(60)에 의해 측정된 3차원 각속도에 대해 비광학 신호를 프로세서(52)에 송신한다. 수신된 광학 및 비광학 신호에 기초하여, 네비게이션 프로세서(52)는 로컬라이저(34)에 대하여 추적기(44, 46, 48)의 상대적 위치 및 방향을 나타내는 데이터를 생성한다.
네비게이션 프로세서(52)는 네비게이션 컴퓨터(26)의 동작을 제어하기 위하여 하나 이상의 프로세서를 포함할 수 있다는 것이 이해되어야 한다. 프로세서는 임의의 유형의 마이크로프로세서 또는 멀티-프로세서 시스템일 수 있다. 프로세서라는 용어는 본 발명의 범위를 단일 프로세서로 한정하려는 것은 아니다.
수술 절차의 시작 전에, 추가적인 데이터가 네비게이션 프로세서(52)로 로드된다. 추적기(44, 46, 48)의 위치 및 방향과 사전에 로드된 데이터에 기초하여, 네비게이션 프로세서(52)는 워킹 엔드가 적용되어야 하는 조직에 대한 수술 기구(22)의 방향 및 수술 기구(22)의 워킹 엔드의 위치를 결정한다. 일부 실시예에서, 네비게이션 프로세서(52)는 이러한 데이터를 조작자 컨트롤러(54)로 전달한다. 그러면 조작자 컨트롤러(54)는 그 개시가 여기에 참조로써 통합되고 발명의 명칭이 "Surgical Manipulator Capable of Controlling a Surgical Instrument in either a Semi-Autonomous Mode or a Manual, Boundary Constrained Mode"인 미국 가특허출원 제61/679,258호와, 또한 그 개시가 여기에 참조로써 통합되고 발명의 명칭이 "Navigation System for use with a Surgical Manipulator Operable in Manual or Semi-Autonomous Mode"인 미국 특허출원 제13/958,834호에 설명된 로봇식 조작자(56)를 제어하는 데이터를 사용할 수 있다.
또한, 네비게이션 프로세서(52)는 수술 사이트에 대한 수술 기구 워킹 엔드의 상대적 위치를 나타내는 이미지 신호를 생성한다. 이러한 이미지 신호가 디스플레이(28, 29)에 인가된다. 이러한 신호에 기초하여 디스플레이(28, 29)는 수술 사이트에 대한 수술 기구 워킹 엔드의 상대적 위치를 의사 및 스태프들이 볼 수 있게 하는 이미지를 생성한다. 상술한 바와 같이, 디스플레이(28, 29)는 커맨드의 입력을 허용하는 터치 스크린 또는 다른 입력/출력 디바이스를 포함할 수 있다.
Ⅱ. 좌표계 및 변환
도 3을 참조하면, 물체의 추적은 로컬라이저 좌표계 LCLZ를 참조하여 일반적으로 수행된다. 로컬라이저 좌표계는 원점 및 방향(x-, y- 및 z- 축의 세트)을 갖는다. 절차 중 하나의 목표는 로컬라이저 좌표계 LCLZ를 안정하게 유지하는 것이다. 추가로 후술하는 바와 같이, 카메라 유닛(36)이 수술자에 의해 부주의로 부딪힐 때가 발생할 수 있으므로, 카메라 유닛(36)에 장착된 가속도계는 로컬라이저 좌표계 LCLZ의 돌발적이거나 예측하지 않은 이동을 추적하는 데 사용될 수 있다.
추적되고 있는 각각의 추적기(44, 46, 48) 및 물체는 또한 로컬라이저 좌표계 LCLZ와 별개의 그 자신의 좌표계를 갖는다. 그 자신의 좌표계를 갖는 네비게이션 시스템(20)의 컴포넌트는 뼈 추적기(44, 46) 및 기구 추적기(48)이다. 이러한 좌표계는 각각 뼈 추적기 좌표계 BTRK1, BTRK2 및 기구 추적기 좌표계 TLTR로 나타내어진다.
네비게이션 시스템(20)은 뼈에 단단하게 부착된 뼈 추적기(44, 46)의 위치를 감시함으로써 환자의 대퇴골 F 및 경골 T의 위치를 감시한다. 대퇴골 좌표계는 FBONE이고 경골 좌표계는 TBONE이며, 이들은 뼈 추적기(44, 46)가 단단하게 부착된 뼈의 좌표계이다.
절차의 시작 전에, 대퇴골 F 및 경골 T의 (또는 다른 실시예에서는 다른 조직의) 수술 전 이미지가 생성된다. 이러한 이미지는 환자의 신체의 MRI 스캔, 방사선 스캔 또는 CT(computed tomography) 스캔에 기초할 수 있다. 이러한 이미지는 본 기술분야의 잘 알려진 방법을 이용하여 대퇴골 좌표계 FBONE 및 경골 좌표계 TBONE에 매핑된다. 일 실시예에서, 여기에 참조로써 통합되는, Malackowski 등의 미국 특허 제7,725,162호에 개시된 것과 같은, 그 자신의 추적기 PT(도 2 참조)를 갖는 포인터 기구 P가 대퇴골 좌표계 FBONE 및 경골 좌표계 TBONE을 수술전 이미지에 매핑하는 데 사용될 수 있다. 이러한 이미지는 대퇴골 좌표계 FBONE 및 경골 좌표계 TBONE에 고정된다.
절차의 초기 국면 중에, 뼈 추적기(44, 46)는 환자의 뼈에 단단하게 부착된다. 좌표계 FBONE 및 TBONE의 포즈(위치 및 방향)는 각각 좌표계 BTRK1 및 BTRK2에 매핑된다. 뼈와 그 뼈 추적기(44, 46) 사이의 고정된 관계가 주어지면, 좌표계 FBONE 및 TBONE의 포즈는 절차 전체에서 각각 좌표계 BTRK1 및 BTRK2에 대해 고정된 채로 있다. 포즈-설명 데이터가 조작자 컨트롤러(54) 및 네비게이션 프로세서(52) 양쪽과 일체인 메모리에 저장된다.
수술 기구(22)의 워킹 엔드(또한 에너지 어플리케이터 원위부(distal end)라고도 함)는 그 자신의 좌표계 EAPP를 갖는다. 좌표계 EAPP의 원점은 예를 들어, 수술 절단 버의 중심을 나타낼 수 있다. 좌표계 EAPP의 포즈는 절차가 시작하기 전에 기구 추적기 좌표 TLTR의 포즈에 고정된다. 따라서, 서로에 대해 이러한 좌표계 EAPP, TLTR의 포즈가 결정된다. 포즈-설명 데이터는 조작자 컨트롤러(54)와 네비게이션 프로세서(52) 양쪽과 일체인 메모리에 저장된다.
Ⅲ. 소프트웨어
도 2를 참조하면, 로컬화 엔진(100)은 네비게이션 시스템(20)의 일부로 고려될 수 있는 소프트웨어 모듈이다. 로컬화 엔진(100)의 컴포넌트는 네비게이션 프로세서(52) 상에서 실행된다. 본 발명의 일부 버전에서, 로컬화 엔진(100)은 조작자 컨트롤러(54) 상에서 실행될 수 있다.
로컬화 엔진(100)은 입력으로서 광학 기반 신호를 카메라 컨트롤러(42)로부터 수신하고 비광학 기반 신호를 추적기 컨트롤러(62)로부터 수신한다. 이러한 신호에 기초하여, 로컬화 엔진(100)은 로컬라이저 좌표계 LCLZ에서 뼈 추적기 좌표계 BTRK1 및 BTRK2의 포즈(위치 및 방향)를 결정한다. 기구 추적기(48)에 대해 수신된 동일 신호에 기초하여, 로컬화 엔진(100)은 로컬라이저 좌표계 LCLZ에서 기구 추적기 좌표계 TLTR의 포즈를 결정한다.
로컬화 엔진(100)은 추적기(44, 46, 48)의 포즈를 나타내는 신호를 좌표 변환기(102)로 전달한다. 좌표 변환기(102)는 네비게이션 프로세서(52) 상에서 실행되는 네비게이션 시스템 소프트웨어 모듈이다. 좌표 변환기(102)는 환자의 수술전 이미지와 환자 추적기(44, 46) 사이의 관계를 규정하는 데이터를 참조한다. 또한, 좌표 변환기(102)는 기구 추적기(48)에 대한 수술 기구의 워킹 엔드의 포즈를 나타내는 데이터를 저장한다.
절차 중에, 좌표 변환기(102)는 로컬라이저(34)에 대한 추적기(44, 46, 48)의 상대적 포즈를 나타내는 데이터를 수신한다. 이러한 데이터 및 사전에 로드된 데이터에 기초하여, 좌표 변환기(102)는 로컬라이저 좌표계 LCLZ에 대한 좌표계 EAPP 및 뼈 좌표계 FBONE 및 TBONE 양쪽의 상대적 위치 및 방향을 나타내는 데이터를 생성한다.
그 결과, 좌표 변환기(102)는 기구 워킹 엔드가 적용되는 조직(예를 들어, 뼈)에 대한 수술 기구(22)의 워킹 엔드의 위치 및 방향을 나타내는 데이터를 생성한다. 이러한 데이터를 나타내는 이미지 신호가 디스플레이(28, 29)로 전달되어, 의사 및 스태프가 이 정보를 볼 수 있게 한다. 특정 실시예에서, 이러한 데이터를 나타내는 다른 신호가 조작자(56) 및 수술 기구(22)의 대응하는 이동을 제어하기 위해 조작자 컨트롤러(54)로 전달될 수 있다.
로컬라이저 좌표계 LCLZ에서 각각의 추적기 좌표계 BTRK1, BTRK2, TLTR의 포즈를 결정하는 스텝은 동일하므로, 하나만 상세하게 설명할 것이다. 도 4에 도시된 스텝은 단지 하나의 능동인 추적기인 추적기(44)에 기초한다. 후술하는 설명에서, 추적기(44)의 LED는 제1(50a), 제2(50b) 및 제3(50c) LED를 식별하는 부호 50a, 50b, 50c에 의해 나타내어질 것이다.
도 4에 개진되는 스텝은 추적기(44)의 LED(50a, 50b, 50c)의 위치를 결정하기 위한 광학 기반 센서 데이터 및 비광학 기반 센서 데이터의 사용을 나타낸다. 이러한 위치로부터, 네비게이션 프로세서(52)는 추적기(44)의 위치 및 방향, 따라서 이것이 부착되어 있는 대퇴골 F의 위치 및 방향을 결정할 수 있다. 광학 센서(40)에 의해 수신된 신호로부터 도출된 광학 기반 센서 데이터는 LED(50a, 50b, 50c)와 광학 센서(40) 사이의 시선에 의존하는 시선 기반 데이터를 제공한다. 하지만, 비광학 기반 센서 데이터를 생성하기 위한 비광학 기반 신호를 제공하는 자이로스코프 센서(60)는 시선에 의존하지 않으므로, (한번에 한개만의 LED가 측정되므로) LED(50a, 50b, 50c) 중 2개가 측정되지 않을 때 또는 LED(50a, 50b, 50c) 중 하나 이상이 절차 중에 광학 센서(40)에 보이지 않을 때, LED(50a, 50b, 50c)의 위치를 더 양호하게 근사화하기 위해 네비게이션 시스템(20)에 통합될 수 있다.
제1 초기화 스텝 200에서, 시스템(20)은 초기 위치 데이터를 확립하기 위해 로컬라이저 좌표계 LCLZ에서 추적기(44)에 대한 LED(50a, 50b, 50c)의 위치를 측정한다. 이러한 측정은 광학 센서(40)에 광학 신호를 송신하는 순차적으로 점등하는 LED(50a, 50b, 50c)에 의해 이루어진다. 광학 신호가 광학 센서(40)에 의해 수신되면, 대응 신호가 광학 센서(40)에 의해 생성되고 카메라 컨트롤러(42)로 송신된다. LED(50a, 50b, 50c)의 점등 간 주파수는 100Hz 이상이며, 바람직하게는 300Hz 이상, 더욱 바람직하게는 500Hz 이상이다. 일부 경우에, 점등 간 주파수는 1000Hz이거나 점등 간 1 밀리초이다.
일부 실시예에서, 단지 하나의 LED가 한번에 광학 센서(40)에 의해 판독될 수 있다. 카메라 컨트롤러(42)는 (카메라 유닛(36) 및 추적기(44) 상의) 하나 이상의 적외선 또는 RF 트랜시버를 통해, 여기에 참조로써 통합되는 Malackowski 등의 미국 특허 제7,725,162호에 설명된 바와 같이, LED(50a, 50b, 50c)의 점등을 제어할 수 있다. 대안적으로, 추적기(44)가 카메라 컨트롤러(42)로부터의 명령 없이 순차적으로 일단 활성화된 그 LED(50a, 50b, 50c)를 점등하는 (추적기(44) 상의 스위치에 의하는 것과 같이) 로컬로 활성화될 수 있다.
광학 센서(40)로부터의 입력에 기초하여, 카메라 컨트롤러(42)는 로컬라이저 좌표계 LCLZ에서 대응하는 3개의 LED(50a, 50b, 50c)의 각각의 위치를 결정하기 위하여 그 후 로컬화 엔진(100)에 전송되는 미가공 위치 신호를 생성한다.
초기화 스텝 200 중에, 초기 위치 데이터를 확립하기 위해, 추적기(44)의 이동은 미리 정해진 임계치보다 작아야 한다. 미리 정해진 임계치의 값은 네비게이션 컴퓨터(26)에 저장된다. 스텝 200에서 확립된 초기 위치 데이터는 이로부터 프로세스의 나머지 스텝이 기초되는 초기 시간 t0에서 3개의 LED(50a, 50b, 50c)의 위치의 정적인 스냅샷을 필수적으로 제공한다. 초기화 중에, LED(50a, 50b, 50c)의 속도가 사이클(즉, 3개의 LED 측정의 각 세트) 간에 로컬화 엔진(100)에 의해 계산되고, 속도가 충분히 낮으면, 작은 이동이 발생했다는 것을 나타내는 미리 정해진 임계치보다 작으면, 초기 위치 데이터 또는 정적인 스냅샷이 확립된다. 일부 경우에, 미리 정해진 임계치(또한 정적인 속도 제한이라 칭함)는 임의의 축을 따라 200mm/s 이하, 바람직하게는 100mm/s 이하, 더욱 바람직하게는 10mm/s 이하이다. 미리 정해진 임계치가 100mm/s인 경우, 계산된 속도는 정적인 스냅샷을 확립하기 위해 100mm/s보다 작아야 한다.
도 4 및 4a를 참조하면, 정적인 스냅샷이 얻어지면, 측정된 LED(50a, 50b, 50c)의 위치는 스텝 202에서 추적기(44)의 모델과 비교된다. 모델은 네비게이션 컴퓨터(26)에 저장된 데이터이다. 모델 데이터는 추적기 좌표계 BTRK1에서 추적기(44)에 대한 LED의 위치를 나타낸다. 시스템(20)은 각각의 추적기의 좌표계에 각 추적기(44, 46, 48)의 LED(50)의 수 및 위치를 저장한다. 추적기(44, 46, 48)에 대해, 그 좌표계의 원점은 추적기(44)의 모든 LED 위치의 중심에 설정된다.
로컬화 엔진(100)은 로컬라이저 좌표계 LCLZ에서의 측정된 LED(50a, 50b, 50c)를 저장된 모델에서의 LED로 매칭하기 위하여 강체 매칭 알고리즘 또는 포인트 매칭 알고리즘을 이용한다. 최적의 맞춤이 결정되면, 측정된 LED(50a, 50b, 50c)가 저장된 미리 규정된 모델의 공차 내에 맞는지를 결정하기 위해 로컬화 엔진(100)은 그 맞춤의 편차를 평가한다. 공차는 대응 LED 사이의 거리에 기초할 수 있어, 맞춤이 너무 큰 거리로 귀결되면, 초기화 스텝은 반복되어야 한다. 일부 실시예에서, LED의 위치는 모델로부터 2.0mm보다 많이 벗어나서는 안되며, 바람직하게는 0.5mm 이하, 더욱 바람직하게는 0.1mm 이하로 벗어나야 한다.
그 맞춤이 미리 규정된 공차 내에 있다면, 스텝 204에서, 변환 행렬이 모델에서 임의의 다른 미측정된 LED를 뼈 추적기 좌표계 BTRK1로부터 로컬라이저 좌표계 LCLZ로 변환하기 위해 생성된다. 이러한 스텝은, 추가로 후술하는 바와 같이, 3개 초과의 LED가 사용되거나 가상 LED가 사용되는 경우에 이용된다. 일부 실시예에서, 추적기(44, 46, 48)는 4개 이상의 LED를 가질 수 있다. 로컬라이저 좌표계 LCLZ에서 모든 위치가 확립되면, LED 클라우드가 생성된다. LED 클라우드는 로컬라이저 좌표계 LCLZ에서의 모든 LED(50a, 50b, 50c)의 x-, y- 및 z- 축에 기초한 로컬라이저 좌표계 LCLZ에서의 추적기(44)에 대한 모든 LED(50a, 50b, 50c)의 구성이다.
LED 클라우드가 초기에 확립되면, 네비게이션 시스템(20)은 수술 절차 중에 추적기(44)를 추적하는 것으로 진행할 수 있다. 상술한 바와 같이, 이것은 시퀀스에서 다음 LED를 점등하는 것을 포함한다. 예를 들어, LED(50a)가 지금 점등된다. 따라서, LED(50a)는 광학 신호를 광학 센서(40)에 송신한다. 광학 신호가 광학 센서(40)에 의해 수신되면, 대응 신호가 광학 센서(40)에 의해 생성되고 카메라 컨트롤러(42)에 송신된다.
광학 센서(40)로부터의 입력에 기초하여, 카메라 컨트롤러(42)는 로컬라이저 좌표계 LCLZ의 x-, y- 및 z- 축에 대하여 시간 t1에서 LED(50a)의 새로운 위치를 결정하기 위해 로컬화 엔진(100)으로 그 후에 전송되는 미가공 위치 신호를 생성한다. 이것이 새로운 LED 측정으로서 스텝 206에 나타내어진다.
t0, t1...tn과 같은 시간의 표시는 상이한 시간 또는 시간의 상이한 범위 또는 시간 구간을 나타내기 위해 예시적인 목적으로 사용되는 것이며, 본 발명을 이러한 특정된 또는 확정적인 시간으로 한정하지 않는다.
LED(50a)의 새로운 위치가 결정되면, LED(50a)의 선형 속도 벡터가 스텝 208에서 로컬화 엔진(100)에 의해 계산될 수 있다.
추적기(44)는 강체로서 취급된다. 따라서, LED(50a)의 선형 속도 벡터는 그 선형 위치의 변화의 시간 레이트와 동등한 벡터량이다. 로컬라이저 좌표계 LCLZ에서 각 LED의 속도, 심지어 가속도는 로컬라이저 좌표계 LCLZ에서 그 LED의 이전에 그리고 현재 측정된 위치 및 시간으로부터 계산될 수 있다. LED의 이전에 그리고 현재 측정된 위치 및 시간은 그 LED의 위치 이력을 규정한다. LED(50a)의 속도 계산은 이하의 가장 단순한 형식을 취할 수 있다:
여기에서, 이고 시간 에서 LED(50a)의 이전에 측정된 위치이며; 이고 시간 에서 LED(50a)의 현재 측정된 위치이다. 또한, 본 기술분야에서 당업자에게 잘 알려진 바와 같이, 그 LED의 LED 위치 이력을 맞추는 데이터에 의해 각 LED의 속도 및/또는 가속도를 얻을 수 있다.
시간 t1에서, 스텝 210에서, 자이로스코프 센서(60)는 또한 추적기(44)의 각속도를 측정하고 있다. 자이로스코프 센서(60)는 이러한 각속도에 관련된 추적기 컨트롤러(62)로 신호를 송신한다.
로컬화 엔진(100)이 이러한 신호로부터 각속도 벡터 를 계산할 수 있도록, 추적기 컨트롤러(62)는 그 후 대응 신호를 로컬화 엔진(100)으로 송신한다. 스텝 210에서, 자이로스코프 좌표계는 또한 뼈 추적기 좌표계 BTRK1로 변환되어, 로컬화 엔진(100)에 의해 계산된 각속도 벡터 가 뼈 추적기 좌표계 BTRK1에서 표현된다.
스텝 212에서, 상대적 속도 벡터 이 위치 벡터 에 대하여 뼈 추적기 좌표계 BTRK1의 원점에 대하여 계산된다. 이러한 위치 벡터 는 또한 이하의 계산을 위해 로컬화 엔진(100)에 의한 액세스를 위해 네비게이션 컴퓨터(26)의 메모리에 저장된다. 이러한 계산은 자이로스코프 신호로부터 도출된 각속도 벡터 와 LED(50a)로부터 원점까지의 위치 벡터의 외적을 계산함으로써 뼈 추적기 좌표계 BTRK1의 원점의 상대 속도 을 결정한다.
로컬화 엔진(100)은 그 후에 나머지 미측정 LED(50b, 50c)(LED가 점등되지 않아서 그 위치가 측정되지 않고 있으므로 미측정됨)에 대한 상대적 속도 벡터 을 계산한다. 이러한 속도 벡터는 뼈 추적기 좌표계 BTRK1의 원점에 대하여 계산될 수 있다.
시간 t1에서 각각의 미측정된 LED(50b, 50c)에 대한 상대적 속도 을 결정하기 위해 로컬화 엔진(100)에 의해 수행되는 계산은 시간 t1에서 각속도 벡터 와, 뼈 추적기 좌표계 BTRK1의 원점으로부터 각각의 미측정 LED(50b, 50c)까지 취해지는 위치 벡터 및 의 외적에 기초한다. 이러한 위치 벡터 및 는 이하의 계산을 위해 로컬화 엔진(100)에 의한 액세스를 위해 네비게이션 컴퓨터(26)의 메모리에 저장된다:
또한, 스텝 212에서, 뼈 추적기 좌표계 BTRK1에서 계산되는 이러한 상대적 속도는 스텝 202에서 결정된 변환 행렬을 사용하여 로컬라이저 좌표계 LCLZ로 전송된다. 로컬라이저 좌표계 LCLZ에서의 상대적 속도는 스텝 214에서의 계산에서 사용된다.
스텝 214에서, 시간 t1에서 로컬라이저 좌표계 LCLZ에서의 뼈 추적기 좌표계 BTRK1의 원점의 속도 벡터 는 우선 시간 t1에서 LED(50a)의 측정된 속도 벡터 에 기초하여 로컬화 엔진(100)에 의해 계산된다. 속도 벡터 은 시간 t1에서 LED(50a)의 속도 벡터 와 원점에 대해 LED(50a)의 위치 벡터에 대해 표현되는 시간 t1에서의 상대적 벡터 속도 를 더함으로써 계산된다. 따라서, 시간 t1에서 원점의 속도 벡터는 이하와 같이 계산된다:
시간 t1에서 로컬라이저 좌표계 LCLZ에서 나머지 미측정된 LED의 속도 벡터는 시간 t1에서 로컬라이저 좌표계 LCLZ에서 뼈 추적기 좌표계 BTRK1의 원점의 속도 벡터 과 뼈 추적기 좌표계 BTRK1의 원점으로 그 위치 벡터에 대해 표현되는 시간 t1에서의 그 각각의 상대적 속도 벡터에 기초하여 이하 로컬화 엔진(100)에 의해 계산될 수 있다. 시간 t1에서의 이러한 속도 벡터는 이하와 같이 계산된다:
스텝 216에서, 로컬화 엔진(100)은 LED(50b, 50c)의 계산된 속도 벡터와 시간 변화에 기초하여 시간 t0으로부터 시간 t1까지 각각의 미측정 LED(50b, 50c)의 이동, 즉 (데카르트 좌표에서) 위치 변화 를 계산한다. 일부 실시예에서, 각 LED 측정에 대한 시간 변화 는 2 밀리초 이하이며, 일부 일시예에서는 1 밀리초 이하이다.
그 후, 위치(x, y, z)의 이러한 계산된 변화는 로컬라이저 좌표계 LCLZ에서 각각의 LED(50b, 50c)의 이전에 결정된 위치에 더해질 수 있다. 따라서, 스텝 218에서, 위치 변화는 정적인 스냅샷 중에 결정되었던, 시간 t0에서의 LED(50b, 50c)의 이전의 위치에 더해질 수 있다. 이는 이하와 같이 표현된다:
스텝 220에서, 시간 t1에서 각각의 LED(50b, 50c)에 대한 이러한 계산된 위치는 시간 t1에서 LED(50a)의 결정된 위치와 결합된다. 그 후, 새롭게 결정된 LED(50a, 50b, 50c)의 위치는 포인트 매칭 알고리즘 또는 강체 매칭 알고리즘을 사용하여 최적의 맞춤을 얻기 위해 추적기(44)의 모델로 매칭된다. 이러한 최적의 맞춤 계산의 결과는, 시스템(20)의 규정된 공차 내라면, 뼈 추적기 좌표계 BTRK1을 로컬라이저 좌표계 LCLZ로 링크하기 위해 네비게이션 프로세서(52)에 의해 새로운 변환 행렬이 생성되는 것이다.
새로운 변환 행렬로 미측정 LED(50b, 50c)의 새롭게 계산된 위치가 스텝 222에서 모델로 조정되어 조정된 위치를 제공한다. LED(50a)의 측정된 위치는 또한 매칭 알고리즘으로 인해 조정될 수 있어, 또한 재계산된다. 이러한 조정은 LED 클라우드에 대한 업데이트로 고려된다. 일부 실시예에서, LED(50a)의 측정된 위치는 매칭 스텝 중에 LED(50a)의 모델의 위치로 고정된다.
최적의 맞춤 변환이 완료되면, 측정된 (그리고 아마도 조정된) LED(50a)의 위치와 로컬라이저 좌표계 LCLZ에서 LED(50b, 50c)의 계산된 (그리고 조정된) 위치는 좌표 변환기(102)가 대퇴골 좌표계 FBONE, 뼈 추적기 좌표계 BTRK1, 및 로컬라이저 좌표계 LCLZ 간 이전에 설명된 관계에 기초하여 대퇴골 F의 새로운 위치 및 방향을 결정할 수 있게 한다.
그 후, 다음 시간 t2에서 스텝 206 내지 222가 반복되며, LED(50b)의 로컬라이저 좌표계 LCLZ에서의 측정으로 시작하고, LED(50a, 50c)는 미측정 LED이다. 각 시간 t1, t2...tn에서 이러한 루프의 결과로서, 각각의 LED(50a, 50b, 50c)의 위치가 광학 센서(40) 및 자이로스코프 센서(60)에 의한 측정에 기초하여 매우 정확하게 근사화되고 있는 계산된 위치로 계산되거나 측정된다(각 시간에 하나의 LED가 점등됨). LED(50)의 새로운 위치를 결정하기 위한 스텝 206 내지 222의 이러한 루프는 적어도 100Hz, 더욱 바람직하게는 적어도 300Hz, 가장 바람직하게는 적어도 500Hz의 주파수에서 로컬화 엔진(100)에 의해 수행될 수 있다.
도 5를 참조하면, LED 클라우드는 또한 모델에 대해 식별되는 미리 결정된 포인트이지만 추적기(44)에 대한 물리적 LED에 실제로 대응하지 않는 가상 LED를 포함할 수 있다. 이러한 포인트의 위치는 또한 시간 t1, t2...tn에서 계산될 수 있다. 이러한 가상 LED는 도 4를 참조하여 미측정 LED와 동일한 방식으로 계산될 수 있다. 유일한 차이점은 가상 LED는 임의의 광원에 대응하지 않고 속성상 단지 가상적이기 때문에, 점등되지 않고 과 측정의 시퀀스에 포함되지 않는다는 것이다. 스텝 300-322는 실제 및 가상 LED를 사용하여 추적기(44, 46, 48)를 추적하기 위해 사용되는 스텝을 나타낸다. 스텝 300-322는 상술한 동일 식을 사용하여 미측정 LED와 같이 취급되는 가상 LED의 추가를 제외하고는 스텝 200-222에 일반적으로 대응한다.
예를 들어, LED(50a, 50b, 50c)에 추가하여 가상 LED를 사용하는 하나의 목적은 상술한 속도 계산에서 오차의 효과를 감소시키는 것이다. 이러한 오차는 LED(50a, 50b, 50c)의 계산된 위치에 작은 영향을 가질 수 있지만, 관심 있는 포인트가 LED(50a, 50b, 50c)로부터 더욱 떨어져 위치되면 증폭될 수 있다. 예를 들어, 추적기(44)로 대퇴골 F를 추적할 때, 추적기(44)에 통합된 LED(50a, 50b, 50c)는 대략 0.2 밀리미터의 그 계산된 위치의 약간의 오차를 경험할 수 있다. 하지만, LED(50a, 50b, 50c)로부터 10 센티미터 이상 떨어져 위치될 수 있는 대퇴골 F를 고려한다. LED(50a, 50b, 50c)에서의 0.2 밀리미터의 약간의 오차는 대퇴골 F의 표면에서 0.4 내지 2 밀리미터의 오차로 귀결될 수 있다. 대퇴골이 LED(50a, 50b, 50c)로부터 더 떨어져 위치될수록, 오차가 더욱 증가한다. 도 5의 스텝들에서의 가상 LED의 사용은 후술하는 이러한 오차의 잠재적인 증폭을 감소시킬 수 있다.
도 5a를 참조하면, 하나의 가상 LED(50d)가 대퇴골 F의 표면 상에 위치될 수 있다. 다른 가상 LED(50e, 50f, 50g, 50h, 50i, 50j, 50k)는 x-, y- 및 z- 축의 각각을 따라 그리고 이러한 축들을 따라 원점의 양측 상에서 뼈 추적기 좌표계 BTRK1에서 랜덤한 위치에 위치될 수 있어 6개의 가상 LED를 만든다. 이러한 가상 LED는 도 5a에 도시되고 스텝 302 및 320에서 사용되는 추적기(44)의 모델의 일부로서 포함된다. 일부 실시예에서, 가상 LED(50e-50k)만이 사용된다. 다른 실시예에서, 가상 LED는 x-, y- 및 z- 축의 각각을 따르지만, 뼈 추적기 좌표계 BTRK1의 원점으로부터 상이한 거리에 있는 위치에 위치될 수 있다. 더욱 추가적인 실시예에서, 가상 LED의 일부 또는 전부는 축 x-, y- 및 z- 에 떨어져 위치될 수 있다.
이하 모델에서 실제 LED(50a, 50b, 50c)와 가상 LED(50d-50k)가 있다. 각 시간 t1, t2...tn에서, 이러한 확장된 모델은 스텝 320에서 실제 LED(50a, 50b, 50c)의 측정된/계산된 위치와 가상 LED(50d-50k)의 계산된 위치와 매칭되어, 뼈 추적기 좌표계 BTRK1과 로컬라이저 좌표계 LCLZ를 연결하는 변환 행렬을 얻는다. 이제, 실제 LED(50a, 50b, 50c)보다 넓은 위치에 위치되는, 모델에 포함되는 가상 LED(50d-50k)로, 회전 행렬에서의 오차가 감소될 수 있다. 본질적으로, 강체 매칭 알고리즘 또는 포인트 매칭 알고리즘은 매칭을 위해 사용되는 추가적인 포인트를 갖고, 이러한 추가적인 포인트의 일부는 실제 LED(50a, 50b, 50c)를 규정하는 포인트로부터 외부로 방사상으로 위치되므로, 매치를 회전적으로 안정화시킨다.
도 5의 프로세스의 다른 변형에서, 가상 LED(50e-50k)의 위치는 추적기(44)의 이동에 의존하여 사용 중에 동적으로 변할 수 있다. 시간 t1에서 미측정 실제 LED(50a, 50b, 50c) 및 가상 LED(50e-50k)의 계산된 위치는 추적기(44)가 더 천천히 이동할수록 더욱 정확하다. 따라서, 뼈 추적기 좌표계 BTRK1의 원점에 대하여 x-, y- 및 z- 축을 따른 가상 LED(50e-50k)의 위치가 추적기(44)의 속도에 기초하여 조정될 수 있다. 가상 LED(50e-50k)의 위치가 각각 (s,0,0),(-s,0,0),(0,s,0),(0,-s,0),(0,0,s),(0,0,-s)로 표기되면, 추적기(44)가 천천히 이동할 때 s가 증가할 것이고, 추적기(44)가 더 빠르게 이동할 때 s는 더 작은 값으로 감소할 것이다. 이것은 s에 대해 경험식에 의해 다루어질 수 있거나, s는 속도 및 계산된 위치에서의 오차의 추정에 기초하여 조정될 수 있다.
LED(50)(실제 또는 가상)의 새로운 위치를 결정하는 것은 적어도 100Hz, 더욱 바람직하게는 적어도 300Hz, 가장 바람직하게는 적어도 500Hz의 주파수에서 수행될 수 있다.
LED(50)의 광 측정이 시선과의 간섭으로 방해되는 상황에서 가속도계(70)로부터의 데이터가 사용될 수 있다. 측정되는 LED가 차단되는 경우에, 로컬화 엔진(100)은 위치를 추정하기 위해 원점의 일정 속도를 상정한다. 하지만, 이 상황에서 일정한 속도의 상정은 정확하지 않을 수 있고 오차로 귀결될 수 있다. 가속도계(70)는 이 시간 구간에서의 일정 속도 상정이 정확한지를 본질적으로 감시한다. 도 6 및 7에 나타내어진 스텝은 이러한 상정이 어떻게 확인되는지를 나타낸다.
예로서 추적기(44)를 사용하는 것에 계속하여, 도 6의 스텝 400-422는 일반적으로 도 5로부터의 스텝 300-322에 대응한다. 하지만, 스텝 424에서, 시스템(20)은 측정의 최후 사이클에서 3개 미만의 LED가 측정되었는지를 결정하며, 이는 그 사이클의 하나 이상의 LED가 측정될 수 없었다는 것을 의미한다. 이것은 시선 문제 등에 의해 야기될 수 있다. 추적기(44)에 대한 사이클은 최후의 3번의 시도된 측정이다. 최후의 3번의 측정 중에, 각각의 LED(50a, 50b, 50c)를 볼 수 있었고, 측정될 수 있었다면, 시스템(20)은 스텝 408로 진행하고 도 5에 대하여 상술한 바와 같이 계속한다.
시스템(20)이 LED(50a, 50b, 50c) 중 하나 이상의 사이클 중에 측정될 수 없었던 것으로, 즉 측정으로부터 차단되었던 것으로 결정하면, 알고리즘은 여전히 스텝 408로 이동하지만, 스텝 406에서 측정되는 새로운 LED가 측정될 수 없었던 것이라면, 시스템은 후술하는 바와 같이 소정의 속도 상정을 한다.
LED(50a)와 같은 LED가 스텝 406에서 그 측정 시간 tn에서 광학 센서(40)에 의해 보여지지 않는 경우, 이전 시간 t(n-1)에서 로컬라이저 좌표계 LCLZ에서 추적기(44)의 원점의 이전에 계산된 속도 벡터 는 일정하게 유지되는 것으로 상정된다. 따라서, 로컬라이저 좌표계 LCLZ에서 LED(50a, 50b, 50c)의 속도 벡터는 로컬라이저 좌표계 LCLZ에서 이전에 계산된 속도 벡터 와, 자이로스코프(60)로부터 새롭게 측정된 각속도 벡터로부터 도출되는 LED(50a, 50b, 50c)의 상대적 속도 벡터에 기초하여 계산될 수 있다. 스텝 316-322에 설명된 식은 그 후에 LED(50a, 50b, 50c)의 새로운 위치를 결정하는 데 사용될 수 있다.
LED(50a)가 스텝 406에서 측정될 때 시작하는 것이 방해된다면, 원점의 속도 벡터는 이전 계산과 동일한 것으로 상정된다. 따라서, 새로운 LED의 속도는 스텝 408에서 계산되지 않는다:
스텝 410은 스텝 310과 동일하게 진행된다.
그러면, 스텝 412에서 계산된 LED(50a, 50b, 50c)의 상대적 속도 벡터 은 이전의 속도 벡터 과 뼈 추적기 좌표계 BTRK1에서 자이로스코프(60)로부터 새롭게 측정된 각속도 벡터에 기초한다:
스텝 416 내지 422는 스텝 316 내지 322와 동일하게 진행한다.
시스템(20)이 스텝 424에서 LED(50a, 50b, 50c) 중 하나 이상이 사이클 중에 측정될 수 없었던 것으로, 즉 측정으로부터 차단되었던 것으로 결정하면, 사이클 내의 모든 LED(50a, 50b, 50c)가 광학 센서(40)에 보일 수 있는 완전한 측정 사이클이 이루어질 때까지 다른 알고리즘이 도 7에 나타내어진 스텝 500 내지 506에서 동시에 수행된다. 따라서, 시스템(20)은, 모든 보여지는 측정을 갖는 완전한 사이클이 이루어질 때까지 "차단" 상태에 있는 것으로 고려된다.
스텝 500 내지 506이 계속 수행되며, 시스템(20)은 차단 상태에 있다.
스텝 502에서, 가속도계(70)는 일정 속도 상정에서 오차를 추적하기 위해 뼈 추적기 좌표계 BTRK1의 x-, y- 및 z- 축을 따라 가속도를 측정한다. 자이로스코프 판독과 같은 가속도계 판독은 가속도계 좌표계로부터 뼈 추적기 좌표계 BTRK1로 변환된다.
가속도계(70)가 미리 규정된 가속도 공차(들)를 초과하는 가속도(들)를 검출하면, 네비게이션 컴퓨터(26)는 시스템(20)을 오차 상태로 둘 것이다. 가속도 공차는 각각의 x-, y- 및 z- 축을 따라 다르게 규정될 수 있거나 각 축을 따라 동일할 수 있다. 측정된 가속도가 공차를 초과하면 일정 속도 상정이 신뢰될 수 없고 수술 네비게이션의 그 특정 어플리케이션에 대해 사용될 수 없다. 다른 어플리케이션에 대해서는 다른 공차가 채용될 수 있다. 예를 들어, 로봇식 절단 중에는 공차가 매우 낮을 수 있지만, 시각적 네비게이션만에 대해서는, 즉 절단 제어 루프에 대한 피드백이 없으면, 공차는 더 높게 설정될 수 있다.
스텝 504에서, 광학 센서(40)에 대한 LED(50)의 위치와 연관된 속도 오차가 차단된 상태 중에 고려되고 감시된다. 각각의 LED(50)에 대하여, 차단된 상태의 시간 과 곱해진 속도 오차 는 위치 오차 공차 보다 작아야 하며, 따라서 시스템(20)이 오차 상태로 되는 것을 방지하기 위해 이하의 식을 충족시켜야 한다:
위치 오차 및 은 시간 t 및 t-1에서 광학 센서(40)에 대한 위치에 기초하는 시스템(20)에서의 미리 규정된 위치 오차이다. 본질적으로, 광학 센서(40)로부터 더 멀리 떨어져 LED(50a, 50b, 50c)가 위치될수록, 잠재적인 위치 오차가 더 높아진다. 이러한 위치 오차는 실험적으로 또는 이론적으로 도출되며, 룩업 테이블 또는 식으로 제공되어, 데카르트 좌표계 (x,y,z)의 LED(50a 50b, 50c)의 각 위치에서 연관된 위치 오차가 제공된다.
스텝 504에서, 로컬화 엔진(100)은 현재 시간 t 및 이전 시간 t-1에서 LED(50a, 50b, 50c)의 각각에 대해 위치 오차를 결정하기 위해 이러한 룩업 테이블에 액세스하거나 이 식을 계산한다. 따라서, 위치 오차는 현재 시간 t 및 이전의 시간 t-1에서 스텝 422에서 시스템(20)에 의해 계산된 로컬라이저 좌표계 LCLZ에서의 데카르트 좌표의 위치에 기초한다. 시간 변수 는 후속 위치 계산에 드는 시간을 나타내며, 즉 t와 t-1 사이이며, 이는 예시적인 목적으로 1 밀리초일 수 있다.
위치 오차 공차 는 로컬화 엔진(100)에 의한 액세스를 위해 네비게이션 컴퓨터(26)에서 미리 규정된다. 위치 오차 공차 는 밀리미터로 표현될 수 있다. 위치 오차 공차 는 0.001 내지 1 밀리미터의 범위에 있을 수 있으며, 일부 실시예에서는 0.5 밀리미터로 특정적으로 설정된다. 따라서, 위치 오차 공차 가 0.5 밀리미터로 설정되면, 이하의 식이 충족되어야 한다:
알 수 있는 바와 같이, 시스템(20)이 차단 상태로 오래 있을수록, 이 식에서 시간 변수가 갖는 효과가 커져서 용인될 속도 오차가 더 작아진다. 일부 실시예에서, 이 식은 각각의 LED(50a 50b, 50c)에 대해 개별로 스텝 504에서 로컬화 엔진(100)에 의해 계산된다. 다른 실시예에서, LED(50a 50b, 50c)가 추적기(44)에 대해 얼마나 밀접하게 배치되었는지로 인해, LED(50a 50b, 50c) 중 1개만의 속도 오차가 준수를 결정하기 위해 이 계산에서 사용된다.
스텝 506에서, 오차(들)가 위치 오차 공차 를 초과하는 경우, 시스템(20)은 오차 상태로 된다. 이러한 상태에서, 예를 들어, 절단 또는 절제 툴의 임의의 제어 또는 이동이 중지되고 툴은 셧 다운된다.
Ⅳ. 다른 실시예
일 실시예에서, 각각의 추적기(44, 46, 48)가 능동적으로 추적되고 있을 때, 추적기(44)로부터 하나의 LED가 점등된 후, 추적기(46)로부터 하나의 LED가 점등된 후, 추적기(48)로부터 하나의 LED가 점등된 후, 추적기(44)로부터 두번째 LED, 그 후 추적기(46)로부터 두번째 LED 등으로 모든 LED가 점등될 때까지 LED의 점등이 발생하고, 그 후 시퀀스가 반복된다. 점등의 이러한 순서는 카메라 유닛(36) 상의 트랜시버(미도시)로부터 추적기(44, 46, 48) 상의 트랜시버(미도시)로 전송되는 명령 신호를 통해 발생할 수 있다.
네비게이션 시스템(20)은 수술 절단 기구에 의해 수행되는 수술 절차를 제어하기 위해 폐쇄 루프 방식으로 사용될 수 있다. 네비게이션 시스템(20)이 기구(22)와 뼈와 같이 절단되고 있는 신체의 위치 및 방향을 추적할 수 있도록 기구(22)와 절단되고 있는 신체 양쪽에 추적기(50)가 갖추어진다.
일 실시예에서, 네비게이션 시스템은 조직을 치료하기 위한 로봇식 수술 시스템의 일부이다. 일부 버전에서, 로봇식 수술 시스템은 뼈 또는 연조직과 같이, 환자의 신체로부터 물질을 절단해 내기 위한 로봇식 수술 절단 시스템이다. 절단 시스템은 유니콤파트먼트, 바이콤파트먼트, 또는 전체 무릎 임플란트를 포함하는 둔부 및 무릎 임플란트와 같은 수술 임플란트를 위해 뼈를 준비하는 데 사용될 수 있다. 이러한 유형의 임플란트 중 일부가 본 개시의 참조로써 여기에 통합되고 발명의 명칭이 "Prosthetic Implant and Method of Implantation"인 미국 특허출원 제13/530,927호에 나타내어져 있다.
로봇식 수술 절단 시스템은 조작자(예를 들어, 도 1 참조)를 포함한다. 조작자는 복수의 아암과 상기 복수의 아암 중 적어도 하나에 의해 수행되는 절단 툴을 갖는다. 로봇식 제어 시스템은 적어도 5도의 자유로 절단 툴의 이동을 제어하거나 제약한다. 이러한 조작자 및 제어 시스템의 예들이, 여기에 참조로써 통합되고, 발명의 명칭이 "Surgical Manipulator Capable of Controlling a Surgical Instrument in either a Semi-Autonomous Mode or a Manual, Boundary Constrained Mode"인 미국 가특허출원 제61/679,258호와, 또한 그 개시가 참조로써 여기에 통합되고 발명의 명칭이 "Navigation System for use with a Surgical Manipulator Operable in Manual or Semi-Autonomous Mode"인 미국 특허출원 제13/958,834호에 나타내어져 있다.
본 실시예에서, 네비게이션 시스템(20)은 (조작자 컨트롤러(54)를 포함할 수 있는) 로봇식 제어 시스템과 통신한다. 네비게이션 시스템(20)은 위치 및/또는 방향 데이터를 상기 로봇식 제어 시스템으로 전달한다. 위치 및/또는 방향 데이터는 신체에 대한 기구(22)의 위치 및/또는 방향을 나타낸다. 이러한 통신은, 절단이 미리 규정된 경계 내에서 이루어지도록 신체의 절단을 제어하기 위해 폐쇄 루프 제어를 제공한다.
본 실시예에서, 조작자 이동은 LED 측정과 일치할 수 있어, 이루어지는 각 LED 측정에 대하여 조작자(56)에 의해 대응하는 기구(22)의 이동이 존재한다. 하지만, 이것은 언제나 그러한 것은 아니다. 예를 들어, 최종 LED 측정과 조작자(56)에 의한 이동 간에 지연이 있을 수 있어, 제어 루프 이동의 목적으로 네비게이션 컴퓨터(26)로부터 조작자(56)로 전송되는 위치 및/또는 방향 데이터가 신뢰할 수 없게 된다. 이 경우에, 네비게이션 컴퓨터(26)가 운동학 데이터를 또한 조작자 컨트롤러(54)로 송신하도록 구성될 수 있다. 이러한 운동학 데이터는 추적기(44, 46, 48)에 대한 이전에 미리 정해진 선형 속도 및 각속도를 포함한다. 속도가 이미 알려져 있으므로, 위치는 시간 지연에 기초하여 계산될 수 있다. 조작자 컨트롤러(54)는 조작자(56)의 이동을 제어할 목적으로, 추적기(44, 46, 48)의 위치 및 방향, 그리고 대퇴골 F 및/또는 경골 T에 대한 기구(22)(또는 기구 팁)의 상대적 위치 및 방향을 계산할 수 있다.
본 실시예에서, 기구(22)는 도 1에 도시된 조작자 또는 이동에 기계적 제약의 일정 형태를 제공하는 다른 로봇에 의해 보유된다. 이러한 제약은 미리 규정된 경계 내에 기구(22)의 이동을 한정한다. 기구(22)가 미리 규정된 경계를 넘어 벗어나면, 절단을 중지하기 위해 컨트롤이 기구(22)에 전송된다.
이 시스템에서 기구(22)와 실시간으로 절단되고 있는 신체 양쪽을 추적할 때, 위치에 있어서 신체를 단단하게 고정할 필요성이 제거될 수 있다. 기구(22)와 신체 양쪽이 추적되므로, 기구(22)의 제어는 신체에 대한 기구(22)의 상대적 위치 및/또는 방향에 기초하여 조정될 수 있다. 또한, 디스플레이 상의 기구(22)와 신체의 표현은 서로에 대해 이동할 수 있어, 그 실제 움직임을 에뮬레이팅한다.
일 실시예에서, 대퇴골 F 및 경골 T의 각각은 수술 기구(22)의 워킹 엔드에 의해 제거되는 물질의 타겟 체적을 갖는다. 타겟 체적은 하나 이상의 경계에 의해 규정된다. 경계는 절차 후에 남아있어야 하는 뼈의 표면을 규정한다. 일부 실시예에서, 시스템(20)은 예를 들어 버인 워킹 엔드가 여기에 참조로써 통합되고, 발명의 명칭이 "Surgical Manipulator Capable of Controlling a Surgical Instrument in either a Semi-Autonomous Mode or a Manual, Boundary Constrained Mode"인 미국 가특허출원 제61/679,258호에 개시된 바와 같이 재료의 타겟 체적만을 제거하고 경계 밖으로 확장하지 않는 것을 보장하기 위해 수술 기구(22)를 추적 및 제어한다.
상술한 실시예에서, 기구(22)의 제어는 버 또는 타겟 체적에 대해 상대적인 다른 절단 툴의 위치 및 방향을 나타내는 좌표 변환기(102)에 의해 생성되는 데이터를 이용함으로써 달성된다. 이러한 상대적 위치를 아는 것에 의해, 수술 기구(22) 또는 이에 장착되는 조작자는, 원하는 물질만이 제거되도록 제어될 수 있다.
다른 시스템에서, 기구(22)는 핸드헬드 하우징에 대해 3도의 자유도로 이동가능하고 절단 지그, 가이드 아암 또는 다른 제약 메커니즘의 도움 없이 의사의 손에 의해 수동으로 위치되는 절단 툴을 갖는다. 이러한 시스템은 그 개시가 여기에 참조로써 통합되고 발명의 명칭이 "Surgical Instrument Including Housing, a Cutting Accessory that Extends from the Housing and Actuators that Establish the Position of the Cutting Accessory Relative to the Housing"인 미국 가특허출원 제61/662,070호에 나타내어져 있다.
이러한 실시예에서, 시스템은 절단 툴을 갖는 핸드 헬드 수술 절단 기구를 포함한다. 제어 시스템은 그 개시가 여기에 참조로써 통합되고 발명의 명칭이 "Surgical Instrument Including Housing, a Cutting Accessory that Extends from the Housing and Actuators that Establish the Position of the Cutting Accessory Relative to the Housing"인 미국 가특허출원 제61/662,070호에 나타내어져 있는 바와 같이, 내부 액튜에이터/모터를 사용하여 적어도 3도의 자유도로 절단 툴의 이동을 제어한다. 네비게이션 시스템(20)은 제어 시스템과 통신한다. (추적기(48)와 같은) 하나의 추적기가 기구에 장착된다. (추적기(44, 46)와 같은) 다른 추적기가 환자의 신체에 장착된다.
본 실시예에서, 네비게이션 시스템(20)은 핸드 헬드 수술 절단 도구의 제어 시스템과 통신한다. 네비게이션 시스템(20)은 제어 시스템으로 위치 및/또는 방향을 전달한다. 위치 및/또는 방향 데이터는 신체에 대한 기구(22)의 위치 및/또는 방향을 나타낸다. 이러한 통신은 미리 규정된 경계 내에서 절단이 일어나도록 신체의 절단을 제어하는 폐쇄 루프 제어를 제공한다(미리 규정된 경계라는 용어는 미리 규정된 궤도, 체적, 선, 다른 형태 또는 기하학 형태 등을 포함하는 것으로 이해됨).
본 발명의 특징은, 카메라 유닛(36)이 수술자에 의해 충돌될 때가 발생할 수 있으므로, 로컬라이저 좌표계 LCLZ의 갑작스럽거나 예측하지 못한 이동을 추적하는 데 사용될 수 있다. 카메라 유닛(36)에 장착된 가속도계(미도시)는 충돌을 감시하고 충돌이 검출되면 시스템(20)을 정지시킨다. 본 실시예에서, 가속도계는 카메라 컨트롤러(42)와 통신하고, x, y, 또는 z 축 중 임의의 것을 따라 측정된 가속도가 미리 정해진 값을 초과하면, 카메라 컨트롤러(42)가 대응 신호를 네비게이션 컴퓨터(26)로 전송하여 시스템(20)을 불능화시키고, 카메라 유닛(36)이 안정화되고 측정을 재개하는 것을 기다린다. 일부 경우에, 초기화 스텝 200, 300, 400은 네비게이션을 재개하기 전에 반복되어야 할 것이다.
일부 실시예에서, 가상 LED가 기구(22)의 워킹 팁에 위치된다. 본 실시예에서, 가상 LED는, 워킹 팁 위치가 연속하여 계산되도록, 기구 추적기(48)의 모델에서 워킹 팁의 위치에 위치된다.
본 발명의 진정한 사상 및 범위 내에 드는 이러한 모든 수정 및 변형을 포함하는 것이 의도된 청구항의 목적이다. 또한, 상술한 실시예는 의료 어플리케이션에 관한 것이지만, 여기에 설명된 본 발명은 산업, 항공우주, 방위 등과 같은 다른 어플리케이션에도 적용가능하다.
Claims (53)
- 네비게이션 시스템으로서,
로컬라이저;
상기 로컬라이저와 통신하고 3개의 마커들과 비광학 센서를 포함하는 추적기; 및
적어도 하나의 프로세서를 갖는 컴퓨팅 시스템을 포함하고,
상기 적어도 하나의 프로세서는:
광학 및 비광학 신호들에 기초하여 제1 좌표계에서 상기 마커들의 각각의 위치들을 결정하고,
상기 제1 좌표계에서 가상 포인트의 위치를 결정하며,
제2 좌표계를 상기 제1 좌표계로 변환하는 변환 행렬을 얻기 위해, 상기 제1 좌표계에서의 상기 마커들 및 상기 가상 포인트의 위치와 상기 제2 좌표계에 대해 확립된 상기 추적기의 모델에서의 상기 마커들 및 상기 가상 포인트의 위치를 매칭하도록 구성되되,
상기 제1 좌표계는 상기 로컬라이저의 좌표계이고, 상기 제2 좌표계는 상기 추적기의 좌표계인, 네비게이션 시스템.
- 제1항에 있어서,
상기 적어도 하나의 프로세서는 복수의 가상 포인트들의 위치들을 결정하고, 상기 추적기의 모델에서의 상기 마커들과 상기 복수의 가상 포인트들의 위치들을 매칭하여 상기 변환 행렬을 얻도록 구성되는, 네비게이션 시스템. - 제2항에 있어서,
상기 복수의 가상 포인트들은 상기 제2 좌표계의 x, y 및 z 축의 각각을 따라 위치하는 제1 세트의 가상 포인트들을 포함하는, 네비게이션 시스템. - 제3항에 있어서,
상기 복수의 가상 포인트들은 상기 제2 좌표계의 x, y 및 z 축의 각각을 따라 위치하는 제2 세트의 가상 포인트들을 포함하고, 상기 제2 세트의 가상 포인트들은 상기 제2 좌표계의 원점을 기준으로 상기 제1 세트의 가상 포인트들의 맞은편에서 x, y 및 z 축을 따라 위치하는, 네비게이션 시스템. - 제2항에 있어서,
상기 복수의 가상 포인트들은 상기 추적기의 모델에서의 상기 마커들로부터 외부로 방사상으로 위치하는, 네비게이션 시스템. - 제1항에 있어서,
상기 적어도 하나의 프로세서는 강체 매칭 알고리즘 또는 포인트 매칭 알고리즘을 사용하여 상기 제1 좌표계에서의 상기 마커들과 상기 가상 포인트의 위치들과 상기 제2 좌표계에 대해 확립된 상기 추적기의 모델에서의 상기 마커들과 상기 가상 포인트의 위치들을 매칭하도록 구성되는, 네비게이션 시스템. - 제1항에 있어서,
상기 적어도 하나의 프로세서는 상기 추적기의 이동에 기초하여 상기 모델에서의 상기 가상 포인트의 위치를 변경하도록 구성되는, 네비게이션 시스템. - 제1항에 있어서,
상기 적어도 하나의 프로세서는 적어도 500Hz의 주파수에서 상기 마커들과 상기 가상 포인트의 위치들을 결정하도록 구성되는, 네비게이션 시스템. - 제1항에 있어서,
상기 제1 좌표계는 상기 로컬라이저의 좌표계로 더 한정되고, 상기 제2 좌표계는 상기 추적기의의 좌표계로 더 한정되는, 네비게이션 시스템. - 제1항에 있어서,
상기 적어도 하나의 프로세서는 상기 마커들 중 제1 마커로부터의 제1 광학 신호에 기초하여 제1 시간에서의 제1 마커의 위치를 결정하도록 구성되는, 네비게이션 시스템. - 제10항에 있어서,
상기 적어도 하나의 프로세서는 상기 제1 광학 신호 및 상기 비광학 센서로부터의 비광학 신호에 기초하여 상기 제1 시간에서의 상기 마커들 중 제2 및 제3 마커와 상기 가상 포인트의 위치들을 결정하도록 구성되는, 네비게이션 시스템. - 물체를 추적하기 위해, 로컬라이저, 3개의 마커들과 비광학 센서를 포함하는 추적기, 및 적어도 하나의 프로세서를 갖는 컴퓨팅 시스템을 포함하는 네비게이션 시스템의 동작 방법으로서, 상기 방법은:
상기 적어도 하나의 프로세서가 광학 및 비광학 신호들에 기초하여 제1 좌표계에서 상기 마커들의 각각의 위치들을 결정하는 단계;
상기 적어도 하나의 프로세서가 상기 제1 좌표계에서 가상 포인트의 위치를 결정하는 단계; 및
상기 적어도 하나의 프로세서가, 제2 좌표계를 상기 제1 좌표계로 변환하는 변환 행렬을 얻기 위해, 상기 제1 좌표계에서의 상기 마커들 및 상기 가상 포인트의 위치와 상기 제2 좌표계에 대해 확립된 상기 추적기의 모델에서의 상기 마커들 및 상기 가상 포인트의 위치를 매칭하는 단계를 포함하되,
상기 제1 좌표계는 상기 로컬라이저의 좌표계이고, 상기 제2 좌표계는 상기 추적기의 좌표계인, 방법.
- 제12항에 있어서,
복수의 가상 포인트들의 위치들을 결정하고, 상기 추적기의 모델에서의 상기 마커들과 상기 복수의 가상 포인트들의 위치들을 매칭하여 상기 변환 행렬을 얻는 단계를 포함하는, 방법.
- 제13항에 있어서,
상기 복수의 가상 포인트들을 상기 제2 좌표계의 x, y 및 z 축의 각각을 따라 위치시키는 단계를 포함하는, 방법.
- 제14항에 있어서,
상기 복수의 가상 포인트들을 상기 추적기의 모델에서의 상기 마커들로부터 외부로 방사상으로 위치시키는 단계를 포함하는, 방법.
- 제12항에 있어서,
상기 추적기의 이동에 기초하여 상기 모델에서의 상기 가상 포인트의 위치를 변경하는 단계를 포함하는, 방법.
- 제12항에 있어서,
상기 마커들 중 제1 마커로부터의 제1 광학 신호에 기초하여 제1 시간에서의 상기 제1 마커의 위치를 결정하는 단계를 포함하는, 방법.
- 제17항에 있어서,
상기 제1 광학 신호 및 상기 비광학 센서로부터의 비광학 신호에 기초하여 상기 제1 시간에서의 상기 마커들 중 제2 및 제3 마커와 상기 가상 포인트의 위치들을 결정하는 단계를 포함하는, 방법.
- 네비게이션 시스템으로서,
로컬라이저;
상기 로컬라이저와 통신하고 3개의 마커들과 비광학 센서를 포함하는 추적기; 및
적어도 하나의 프로세서를 갖는 컴퓨팅 시스템을 포함하고,
상기 적어도 하나의 프로세서는:
광학 및 비광학 신호들에 기초하여 상기 마커들의 각각의 위치들을 결정하고,
차단 상태를 만들기 위해 상기 마커들 중 하나 이상이 상기 로컬라이저에 대한 시선으로부터 차단되었는지 결정하며,
차단 상태에 있는 시간을 추적하고,
하나 이상의 차단된 마커들과 연관된 위치 오차 공차를 결정하며,
상기 차단 상태에 있는 시간에 기초하여 상기 하나 이상의 차단된 마커들과 연관된 위치 오차를 결정하고,
상기 위치 오차가 상기 위치 오차 공차 내에 있는지 결정하며,
상기 위치 오차가 상기 위치 오차 공차를 초과하면 상기 네비게이션 시스템을 오차 상태에 두도록 구성되며
상기 적어도 하나의 프로세서와 통신하고 상기 차단 상태 중에 상기 추적기의 가속도를 측정하기 위한 제2 비광학 센서를 포함하고,
상기 적어도 하나의 프로세서는 상기 제2 비광학 센서에 의해 측정된 가속도가 미리 규정된 가속도 공차를 초과하면 상기 네비게이션 시스템을 오차 상태에 두도록 구성되는, 네비게이션 시스템.
- 삭제
- 삭제
- 제19항에 있어서,
상기 적어도 하나의 프로세서는 상기 차단 상태 중에 상기 하나 이상의 차단된 마커들과 연관된 속도 오차를 결정하도록 구성되는, 네비게이션 시스템. - 제22항에 있어서,
상기 속도 오차는 상기 로컬라이저로부터의 상기 하나 이상의 차단된 마커들의 거리에 따라 다른, 네비게이션 시스템. - 제22항에 있어서,
상기 적어도 하나의 프로세서는 상기 차단 상태에 있는 시간과 상기 속도 오차의 곱으로 상기 위치 오차를 계산하도록 구성되고, 상기 위치 오차는 상기 차단 상태에 있는 시간과 상기 속도 오차의 함수로 달라지는, 네비게이션 시스템. - 제19항에 있어서,
상기 위치 오차 공차는 0.001 내지 1.0 밀리미터의 범위인, 네비게이션 시스템. - 물체를 추적하기 위한, 로컬라이저, 3개의 마커들과 비광학 센서를 포함하는 추적기, 및 적어도 하나의 프로세서를 갖는 컴퓨팅 시스템을 포함하는 네비게이션 시스템의 동작 방법으로서, 상기 방법은:
광학 및 비광학 신호들에 기초하여 상기 마커들의 각각의 위치들을 결정하는 단계;
차단 상태를 만들기 위해 상기 마커들 중 하나 이상이 상기 로컬라이저에 대한 시선으로부터 차단되었는지 결정하는 단계;
차단 상태에 있는 시간을 추적하는 단계;
하나 이상의 차단된 마커들과 연관된 위치 오차 공차를 결정하는 단계;
상기 차단 상태에 있는 시간에 기초하여 상기 하나 이상의 차단된 마커들과 연관된 위치 오차를 결정하는 단계;
상기 위치 오차가 상기 위치 오차 공차 내에 있는지 결정하는 단계; 및
상기 위치 오차가 상기 위치 오차 공차를 초과하면 상기 네비게이션 시스템을 오차 상태에 두는 단계를 포함하며
상기 차단 상태 중에 상기 추적기의 가속도를 측정하는 단계 및
측정된 상기 가속도가 미리 규정된 가속도 공차를 초과하면 상기 네비게이션 시스템을 오차 상태에 두는 단계를 더 포함하는, 방법.
- 삭제
- 삭제
- 제26항에 있어서,
상기 위치 오차를 결정하는 단계는 상기 차단 상태 중에 상기 하나 이상의 차단된 마커들과 연관된 속도 오차를 결정하는 단계를 포함하는, 방법.
- 제29항에 있어서,
상기 속도 오차는 상기 로컬라이저로부터의 상기 하나 이상의 차단된 마커들의 거리에 따라 다른, 방법.
- 제29항에 있어서,
상기 위치 오차를 결정하는 단계는 상기 차단 상태에 있는 시간과 상기 속도 오차의 곱으로 상기 위치 오차를 계산하는 단계를 포함하고, 상기 위치 오차는 상기 차단 상태에 있는 시간과 상기 속도 오차의 함수로 달라지는, 방법.
- 제26항에 있어서,
상기 위치 오차 공차는 0.001 내지 1.0 밀리미터의 범위인, 방법.
- 수술 중에 물체를 추적하기 위한, 복수의 광학 센서들, 3개의 마커들과 비광학 센서를 포함하는 추적기와 적어도 하나의 프로세서를 갖는 컴퓨팅 시스템을 포함하는 네비게이션 시스템의 동작 방법으로서, 상기 방법은:
상기 복수의 광학 센서들로 상기 마커들로부터의 광학 신호들을 순차적으로 수신하는 단계;
상기 비광학 센서로 비광학 신호들을 생성하는 단계;
상기 적어도 하나의 프로세서로 상기 마커들 중 제1 마커로부터의 제1 광학 신호에 기초하여 제1 시간에서의 상기 제1 마커의 위치를 결정하는 단계;
상기 적어도 하나의 프로세서로 상기 제1 광학 신호 및 상기 비광학 센서로부터의 비광학 신호에 기초하여 상기 제1 시간에서의 상기 마커들 중 제2 및 제3 마커의 위치들을 결정하는 단계; 및
상기 적어도 하나의 프로세서로 상기 수술 중에 상기 물체의 위치를 추적하기 위하여 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 결정된 위치들을 상기 물체와 상관시키는 단계를 포함하는, 방법.
- 제33항에 있어서,
상기 비광학 센서를 상기 마커들의 각각에 대하여 알려진 위치에 배치하는 단계를 포함하는, 방법.
- 제33항에 있어서,
상기 제2 마커 및 상기 제3 마커가 광학 신호들을 발산하기에 앞서 상기 제1 시간에 상기 제1 마커가 상기 제1 광학 신호를 발산하도록 상기 마커들로부터 광학 신호들을 순차적으로 발산하는 단계를 포함하는, 방법.
- 제33항에 있어서,
상기 제1 시간에서 상기 제1 광학 신호에 기초하여 상기 제1 마커의 제1 속도를 계산하고, 상기 제1 속도 및 상기 비광학 신호에 기초하여 상기 제2 마커 및 상기 제3 마커의 속도를 계산함으로써 상기 제2 마커 및 상기 제3 마커의 위치들을 계산하는 단계를 포함하는, 방법.
- 제33항에 있어서,
상기 물체의 위치 및 방향을 추적하기 위하여 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 결정된 위치들을 상기 물체에 상관시키는 단계를 포함하는, 방법.
- 제33항에 있어서,
초기 위치 데이터를 확립하기 위해 초기 시간에서 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 초기 위치들을 측정하는 단계를 포함하는, 방법.
- 제38항에 있어서,
광학 신호들을 상기 복수의 광학 센서들로 송신하기 위해 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커를 순차적으로 점등시킴으로써 상기 초기 위치 데이터를 확립하기 위해 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 초기 위치들을 측정하는 단계를 포함하는, 방법.
- 제38항에 있어서,
상기 초기 위치 데이터를 확립하면서 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 속도들을 계산하고 계산된 속도들을 미리 정해진 임계치와 비교하는 단계를 포함하는, 방법.
- 제38항에 있어서,
상기 초기 시간에 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 측정된 초기 위치들을 상기 컴퓨팅 시스템에 저장된 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 모델과 비교하는 단계를 포함하는, 방법.
- 제41항에 있어서,
상기 제1 마커, 상기 제2 마커 및 상기 제3 마커와 상기 모델을 매칭하여 상기 모델에 제공하는 단계를 포함하는, 방법.
- 제42항에 있어서,
하나 이상의 가상 마커들과 상기 모델을 매칭하여 상기 모델에 제공하는 단계를 포함하는, 방법.
- 제33항에 있어서,
상기 제1 마커의 선형 속도 벡터를 계산하는 단계를 포함하는, 방법.
- 제44항에 있어서,
상기 제1 시간에 상기 추적기의 각속도를 측정하는 단계를 포함하는, 방법.
- 제45항에 있어서,
측정된 상기 각속도에 기초하여 추적기 좌표계의 원점의 상대적 속도 벡터를 계산하는 단계를 포함하는, 방법.
- 제46항에 있어서,
측정된 상기 각속도에 기초하여 상기 제2 마커 및 상기 제3 마커에 대한 상대적 속도 벡터들을 계산하는 단계를 포함하는, 방법.
- 제47항에 있어서,
상기 제1 마커의 계산된 선형 속도 벡터와 상기 원점의 계산된 상대적 속도 벡터에 기초하여 상기 추적기 좌표계의 상기 원점의 속도 벡터를 계산하는 단계를 포함하는, 방법.
- 제48항에 있어서,
상기 원점의 계산된 속도 벡터와 상기 제2 마커 및 상기 제3 마커의 계산된 상대적 속도 벡터들에 기초하여 상기 제1 시간에서 상기 제2 마커 및 상기 제3 마커의 속도 벡터들을 계산하는 단계를 포함하는, 방법.
- 제49항에 있어서,
상기 제1 시간에서 상기 제2 마커 및 상기 제3 마커의 계산된 속도 벡터들에 기초하여 상기 제1 시간에서 상기 제2 마커 및 상기 제3 마커의 위치들을 계산하는 단계를 포함하는, 방법.
- 제50항에 있어서,
하나 이상의 가상 마커들에 대한 상대적 속도 벡터들을 계산하는 단계를 포함하는, 방법.
- 제51항에 있어서,
상기 원점의 계산된 속도 벡터와 상기 하나 이상의 가상 마커들의 계산된 상대적 속도 벡터들에 기초하여 상기 제1 시간에서 상기 하나 이상의 가상 마커들의 속도 벡터들을 계산하는 단계를 포함하는, 방법.
- 제52항에 있어서,
상기 제1 시간에서 상기 하나 이상의 가상 마커들의 계산된 속도 벡터들에 기초하여 상기 제1 시간에서 상기 하나 이상의 가상 마커들의 위치를 계산하는 단계를 포함하는, 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020217003677A KR102310664B1 (ko) | 2012-09-26 | 2013-09-25 | 광학 및 비광학 센서를 포함하는 네비게이션 시스템 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261705804P | 2012-09-26 | 2012-09-26 | |
US61/705,804 | 2012-09-26 | ||
US14/035,207 | 2013-09-24 | ||
US14/035,207 US9008757B2 (en) | 2012-09-26 | 2013-09-24 | Navigation system including optical and non-optical sensors |
PCT/US2013/061642 WO2014052428A1 (en) | 2012-09-26 | 2013-09-25 | Navigation system including optical and non-optical sensors |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157005182A Division KR101974102B1 (ko) | 2012-09-26 | 2013-09-25 | 광학 및 비광학 센서를 포함하는 네비게이션 시스템 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217003677A Division KR102310664B1 (ko) | 2012-09-26 | 2013-09-25 | 광학 및 비광학 센서를 포함하는 네비게이션 시스템 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190045412A KR20190045412A (ko) | 2019-05-02 |
KR102216509B1 true KR102216509B1 (ko) | 2021-02-18 |
Family
ID=50339531
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157005182A KR101974102B1 (ko) | 2012-09-26 | 2013-09-25 | 광학 및 비광학 센서를 포함하는 네비게이션 시스템 |
KR1020217003677A KR102310664B1 (ko) | 2012-09-26 | 2013-09-25 | 광학 및 비광학 센서를 포함하는 네비게이션 시스템 |
KR1020197011736A KR102216509B1 (ko) | 2012-09-26 | 2013-09-25 | 광학 및 비광학 센서를 포함하는 네비게이션 시스템 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157005182A KR101974102B1 (ko) | 2012-09-26 | 2013-09-25 | 광학 및 비광학 센서를 포함하는 네비게이션 시스템 |
KR1020217003677A KR102310664B1 (ko) | 2012-09-26 | 2013-09-25 | 광학 및 비광학 센서를 포함하는 네비게이션 시스템 |
Country Status (8)
Country | Link |
---|---|
US (6) | US9008757B2 (ko) |
EP (2) | EP3884900A1 (ko) |
JP (3) | JP6370789B2 (ko) |
KR (3) | KR101974102B1 (ko) |
CN (3) | CN109171964B (ko) |
AU (3) | AU2013323646B2 (ko) |
CA (1) | CA2883508A1 (ko) |
WO (1) | WO2014052428A1 (ko) |
Families Citing this family (208)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7635390B1 (en) | 2000-01-14 | 2009-12-22 | Marctec, Llc | Joint replacement component having a modular articulating surface |
US7708741B1 (en) | 2001-08-28 | 2010-05-04 | Marctec, Llc | Method of preparing bones for knee replacement surgery |
US9155544B2 (en) | 2002-03-20 | 2015-10-13 | P Tech, Llc | Robotic systems and methods |
WO2007136745A2 (en) | 2006-05-19 | 2007-11-29 | University Of Hawaii | Motion tracking system for real time adaptive imaging and spectroscopy |
EP2747641A4 (en) | 2011-08-26 | 2015-04-01 | Kineticor Inc | METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION |
US11298196B2 (en) | 2012-06-21 | 2022-04-12 | Globus Medical Inc. | Surgical robotic automation with tracking markers and controlled tool advancement |
US11974822B2 (en) | 2012-06-21 | 2024-05-07 | Globus Medical Inc. | Method for a surveillance marker in robotic-assisted surgery |
US11864839B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical Inc. | Methods of adjusting a virtual implant and related surgical navigation systems |
US10231791B2 (en) | 2012-06-21 | 2019-03-19 | Globus Medical, Inc. | Infrared signal based position recognition system for use with a robot-assisted surgery |
US11896446B2 (en) | 2012-06-21 | 2024-02-13 | Globus Medical, Inc | Surgical robotic automation with tracking markers |
US10624710B2 (en) | 2012-06-21 | 2020-04-21 | Globus Medical, Inc. | System and method for measuring depth of instrumentation |
US11317971B2 (en) | 2012-06-21 | 2022-05-03 | Globus Medical, Inc. | Systems and methods related to robotic guidance in surgery |
US11399900B2 (en) | 2012-06-21 | 2022-08-02 | Globus Medical, Inc. | Robotic systems providing co-registration using natural fiducials and related methods |
US11857149B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | Surgical robotic systems with target trajectory deviation monitoring and related methods |
US11253327B2 (en) | 2012-06-21 | 2022-02-22 | Globus Medical, Inc. | Systems and methods for automatically changing an end-effector on a surgical robot |
US20190380794A1 (en) * | 2012-06-21 | 2019-12-19 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US11963755B2 (en) | 2012-06-21 | 2024-04-23 | Globus Medical Inc. | Apparatus for recording probe movement |
US11589771B2 (en) | 2012-06-21 | 2023-02-28 | Globus Medical Inc. | Method for recording probe movement and determining an extent of matter removed |
US11864745B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical, Inc. | Surgical robotic system with retractor |
US10874466B2 (en) | 2012-06-21 | 2020-12-29 | Globus Medical, Inc. | System and method for surgical tool insertion using multiaxis force and moment feedback |
US12004905B2 (en) | 2012-06-21 | 2024-06-11 | Globus Medical, Inc. | Medical imaging systems using robotic actuators and related methods |
US11786324B2 (en) | 2012-06-21 | 2023-10-17 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US11045267B2 (en) | 2012-06-21 | 2021-06-29 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
US10799298B2 (en) | 2012-06-21 | 2020-10-13 | Globus Medical Inc. | Robotic fluoroscopic navigation |
US10758315B2 (en) | 2012-06-21 | 2020-09-01 | Globus Medical Inc. | Method and system for improving 2D-3D registration convergence |
US11857266B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | System for a surveillance marker in robotic-assisted surgery |
US11793570B2 (en) | 2012-06-21 | 2023-10-24 | Globus Medical Inc. | Surgical robotic automation with tracking markers |
US9008757B2 (en) * | 2012-09-26 | 2015-04-14 | Stryker Corporation | Navigation system including optical and non-optical sensors |
CN108742842B (zh) | 2013-01-16 | 2022-04-19 | 史赛克公司 | 指示视线误差的导航系统和方法 |
US9993273B2 (en) | 2013-01-16 | 2018-06-12 | Mako Surgical Corp. | Bone plate and tracking device using a bone plate for attaching to a patient's anatomy |
US10327708B2 (en) | 2013-01-24 | 2019-06-25 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9717461B2 (en) * | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9305365B2 (en) | 2013-01-24 | 2016-04-05 | Kineticor, Inc. | Systems, devices, and methods for tracking moving targets |
WO2014120734A1 (en) | 2013-02-01 | 2014-08-07 | Kineticor, Inc. | Motion tracking system for real time adaptive motion compensation in biomedical imaging |
JP6368906B2 (ja) | 2013-06-11 | 2018-08-08 | オルトタクシ | 身体部分の計画されたボリュームの処置用システム |
US10390737B2 (en) | 2013-09-30 | 2019-08-27 | Stryker Corporation | System and method of controlling a robotic system for manipulating anatomy of a patient during a surgical procedure |
AU2015221258B2 (en) | 2014-02-21 | 2019-11-21 | Cilag Gmbh International | A set comprising a surgical instrument |
EP3157422A4 (en) | 2014-03-24 | 2018-01-24 | The University of Hawaii | Systems, methods, and devices for removing prospective motion correction from medical imaging scans |
WO2015163943A1 (en) | 2014-04-24 | 2015-10-29 | Covidien Lp | Robotic interface positioning determination systems and methods |
EP3443925B1 (en) * | 2014-05-14 | 2021-02-24 | Stryker European Holdings I, LLC | Processor arrangement for tracking the position of a work target |
JP6205387B2 (ja) * | 2014-06-04 | 2017-09-27 | アニマ株式会社 | 仮想マーカーの位置情報の取得方法及び装置、動作計測方法 |
CN106714681A (zh) | 2014-07-23 | 2017-05-24 | 凯内蒂科尔股份有限公司 | 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法 |
WO2016025440A1 (en) | 2014-08-12 | 2016-02-18 | Intuitive Surgical Operations, Inc. | Detecting uncontrolled movement |
KR101645392B1 (ko) * | 2014-08-13 | 2016-08-02 | 주식회사 고영테크놀러지 | 트랙킹 시스템 및 이를 이용한 트랙킹 방법 |
US10675097B2 (en) * | 2014-08-28 | 2020-06-09 | Waldemar Link Gmbh & Co. Kg | Handheld surgical tool with autonomous navigation |
US10314463B2 (en) | 2014-10-24 | 2019-06-11 | Auris Health, Inc. | Automated endoscope calibration |
WO2016070013A1 (en) | 2014-10-31 | 2016-05-06 | Medtronic Advanced Energy Llc | Fingerswitch circuitry to reduce rf leakage current |
KR102477470B1 (ko) | 2014-11-21 | 2022-12-13 | 씽크 써지컬, 인크. | 시각 추적 시스템과 추적 마커 간에 데이터를 전송하기 위한 가시광 통신 시스템 |
WO2016082018A1 (en) | 2014-11-25 | 2016-06-02 | Synaptive Medical (Barbados) Inc. | Sensor based tracking tool for medical components |
DE102015201460B4 (de) * | 2015-01-28 | 2023-05-17 | Siemens Healthcare Gmbh | Positionsbestimmung eines medizinischen Instruments |
CN104658393A (zh) * | 2015-02-10 | 2015-05-27 | 上海理工大学 | 腹腔镜模拟手术训练评价系统及方法 |
KR20240044536A (ko) | 2015-02-25 | 2024-04-04 | 마코 서지컬 코포레이션 | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 |
CN107427330B (zh) * | 2015-04-10 | 2020-10-16 | 马科外科公司 | 在手术工具的自主移动期间控制手术工具的系统和方法 |
US10470724B2 (en) | 2015-04-13 | 2019-11-12 | Precisionrad Llc | Laser and accelerometer guided medical device |
KR102491910B1 (ko) | 2015-05-19 | 2023-01-26 | 마코 서지컬 코포레이션 | 해부체를 조작하는 시스템 및 방법 |
DE102015109371A1 (de) * | 2015-06-12 | 2016-12-15 | avateramedical GmBH | Vorrichtung und Verfahren zur robotergestützten Chirurgie |
US10117713B2 (en) | 2015-07-01 | 2018-11-06 | Mako Surgical Corp. | Robotic systems and methods for controlling a tool removing material from a workpiece |
US11020144B2 (en) | 2015-07-21 | 2021-06-01 | 3Dintegrated Aps | Minimally invasive surgery system |
WO2017012624A1 (en) | 2015-07-21 | 2017-01-26 | 3Dintegrated Aps | Cannula assembly kit, trocar assembly kit, sleeve assembly, minimally invasive surgery system and method therefor |
US9943247B2 (en) | 2015-07-28 | 2018-04-17 | The University Of Hawai'i | Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan |
DK178899B1 (en) | 2015-10-09 | 2017-05-08 | 3Dintegrated Aps | A depiction system |
US10058393B2 (en) | 2015-10-21 | 2018-08-28 | P Tech, Llc | Systems and methods for navigation and visualization |
CA3004167C (en) * | 2015-11-03 | 2019-02-05 | Synaptive Medical (Barbados) Inc. | Dual zoom and dual field-of-view microscope |
EP3380007A4 (en) | 2015-11-23 | 2019-09-04 | Kineticor, Inc. | SYSTEMS, DEVICES, AND METHODS FOR MONITORING AND COMPENSATING A MOVEMENT OF A PATIENT DURING MEDICAL IMAGING SCAN |
KR102430277B1 (ko) * | 2015-11-27 | 2022-08-09 | 큐렉소 주식회사 | 정형외과 수술용 마커 위치 확인 시스템 및 그 확인 방법 |
AU2016380277B2 (en) | 2015-12-31 | 2021-12-16 | Stryker Corporation | System and methods for performing surgery on a patient at a target site defined by a virtual object |
US11883217B2 (en) | 2016-02-03 | 2024-01-30 | Globus Medical, Inc. | Portable medical imaging system and method |
US11064904B2 (en) | 2016-02-29 | 2021-07-20 | Extremity Development Company, Llc | Smart drill, jig, and method of orthopedic surgery |
EP3249427B1 (en) * | 2016-04-22 | 2019-06-12 | Globus Medical, Inc. | A device for regenerating an infrared signal |
EP4186458A1 (en) | 2016-05-23 | 2023-05-31 | MAKO Surgical Corp. | System for tracking a physical object |
US10537395B2 (en) | 2016-05-26 | 2020-01-21 | MAKO Surgical Group | Navigation tracker with kinematic connector assembly |
US20210030479A1 (en) * | 2016-06-02 | 2021-02-04 | Atracsys Sàrl | Mobile surgical navigation system |
US10136952B2 (en) * | 2016-06-16 | 2018-11-27 | Zimmer, Inc. | Soft tissue balancing in articular surgery |
US11229489B2 (en) | 2016-06-16 | 2022-01-25 | Zimmer, Inc. | Soft tissue balancing in articular surgery |
WO2017223120A1 (en) * | 2016-06-20 | 2017-12-28 | Avra Medical Robotics, Inc. | Robotic medical apparatus, system, and method |
KR101848027B1 (ko) | 2016-08-16 | 2018-04-12 | 주식회사 고영테크놀러지 | 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법 |
CN110248618B (zh) | 2016-09-09 | 2024-01-09 | 莫比乌斯成像公司 | 用于在计算机辅助手术中显示患者数据的方法及系统 |
US9931025B1 (en) | 2016-09-30 | 2018-04-03 | Auris Surgical Robotics, Inc. | Automated calibration of endoscopes with pull wires |
US10318024B2 (en) | 2016-10-14 | 2019-06-11 | Orthosoft, Inc. | Mechanical optical pointer |
US10456207B2 (en) | 2016-10-21 | 2019-10-29 | Mako Surgical Corp. | Systems and tools for use with surgical robotic manipulators |
WO2018075784A1 (en) | 2016-10-21 | 2018-04-26 | Syverson Benjamin | Methods and systems for setting trajectories and target locations for image guided surgery |
AU2017362768A1 (en) | 2016-11-18 | 2019-05-30 | Stryker Corp. | Method and apparatus for treating a joint, including the treatment of CAM-type femoroacetabular impingement in a hip joint and pincer-type femoroacetabular impingement in a hip joint |
WO2018092114A1 (en) | 2016-11-21 | 2018-05-24 | St. Jude Medical International Holding S.À R.L. | Fluorolucent magnetic field generator |
CN110192390A (zh) | 2016-11-24 | 2019-08-30 | 华盛顿大学 | 头戴式显示器的光场捕获和渲染 |
JP6968883B2 (ja) | 2016-12-08 | 2021-11-17 | オルトタクシ | 少なくとも1つの目標面に沿って解剖学的構造を切断する外科用システム |
EP3551098B1 (en) | 2016-12-08 | 2024-03-20 | Orthotaxy | Surgical system for cutting an anatomical structure according to at least one target cutting plane |
EP3551099B1 (en) | 2016-12-08 | 2024-03-20 | Orthotaxy | Surgical system for cutting an anatomical structure according to at least one target plane |
US10660715B2 (en) | 2016-12-16 | 2020-05-26 | Mako Surgical Corp. | Techniques for detecting errors or loss of accuracy in a surgical robotic system |
EP3554414A1 (en) | 2016-12-16 | 2019-10-23 | MAKO Surgical Corp. | Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site |
US10244926B2 (en) | 2016-12-28 | 2019-04-02 | Auris Health, Inc. | Detecting endolumenal buckling of flexible instruments |
WO2018189725A1 (en) | 2017-04-14 | 2018-10-18 | Stryker Corporation | Surgical systems and methods for facilitating ad-hoc intraoperative planning of surgical procedures |
US11033341B2 (en) | 2017-05-10 | 2021-06-15 | Mako Surgical Corp. | Robotic spine surgery system and methods |
EP3621545B1 (en) | 2017-05-10 | 2024-02-21 | MAKO Surgical Corp. | Robotic spine surgery system |
US11529129B2 (en) | 2017-05-12 | 2022-12-20 | Auris Health, Inc. | Biopsy apparatus and system |
AU2018279732B2 (en) | 2017-06-09 | 2024-03-07 | Mako Surgical Corp. | Systems and tools for positioning workpieces with surgical robots |
CN110997247B (zh) | 2017-06-09 | 2023-05-09 | 马科外科公司 | 用于产生反作用力以实现虚拟边界的机器人系统和方法 |
CN107149722B (zh) * | 2017-06-20 | 2020-10-09 | 深圳市瀚翔生物医疗电子股份有限公司 | 一种经颅磁刺激治疗设备 |
US10426559B2 (en) | 2017-06-30 | 2019-10-01 | Auris Health, Inc. | Systems and methods for medical instrument compression compensation |
US10806529B2 (en) * | 2017-07-20 | 2020-10-20 | Mako Surgical Corp. | System and method for robotically assisting a surgical procedure |
US11027432B2 (en) | 2017-09-06 | 2021-06-08 | Stryker Corporation | Techniques for controlling position of an end effector of a robotic device relative to a virtual constraint |
US10145747B1 (en) | 2017-10-10 | 2018-12-04 | Auris Health, Inc. | Detection of undesirable forces on a surgical robotic arm |
KR20170123305A (ko) * | 2017-10-30 | 2017-11-07 | 이일권 | 내비게이터를 가진 인체 시술 장치 및 그에 의한 인체 시술 위치 표시 방법 |
US11241285B2 (en) | 2017-11-07 | 2022-02-08 | Mako Surgical Corp. | Robotic system for shoulder arthroplasty using stemless implant components |
US11173048B2 (en) | 2017-11-07 | 2021-11-16 | Howmedica Osteonics Corp. | Robotic system for shoulder arthroplasty using stemless implant components |
US11432945B2 (en) | 2017-11-07 | 2022-09-06 | Howmedica Osteonics Corp. | Robotic system for shoulder arthroplasty using stemless implant components |
US10555781B2 (en) | 2017-11-15 | 2020-02-11 | Stryker Corporation | High bandwidth and low latency hybrid communication techniques for a navigation system |
JP7362610B2 (ja) | 2017-12-06 | 2023-10-17 | オーリス ヘルス インコーポレイテッド | コマンド指示されていない器具の回動を修正するシステムおよび方法 |
AU2018384820B2 (en) | 2017-12-14 | 2024-07-04 | Auris Health, Inc. | System and method for estimating instrument location |
KR20240104190A (ko) | 2018-01-26 | 2024-07-04 | 마코 서지컬 코포레이션 | 수술 로봇 시스템에 의해 가이드되는 구동 도구를 위한 엔드 이펙터 및 방법 |
CN118662240A (zh) | 2018-01-26 | 2024-09-20 | 马科外科公司 | 用于冲击由手术机器人引导的假体的端部执行器、系统和方法 |
US11464569B2 (en) | 2018-01-29 | 2022-10-11 | Stryker Corporation | Systems and methods for pre-operative visualization of a joint |
KR102690164B1 (ko) | 2018-02-13 | 2024-08-02 | 아우리스 헬스, 인코포레이티드 | 의료 기구를 구동시키기 위한 시스템 및 방법 |
AU2019222578A1 (en) | 2018-02-19 | 2020-09-03 | Mako Surgical Corp. | Surgical systems and methods for identifying tools guided by surgical robots |
US10881472B2 (en) * | 2018-02-20 | 2021-01-05 | Verb Surgical Inc. | Correcting a robotic surgery user interface device tracking input |
US11464577B2 (en) | 2018-03-02 | 2022-10-11 | Mako Surgical Corp. | Tool assembly, systems, and methods for manipulating tissue |
CN108324373B (zh) * | 2018-03-19 | 2020-11-27 | 南开大学 | 一种基于电磁定位系统的穿刺手术机器人精确定位实现方法 |
US10933526B2 (en) * | 2018-04-23 | 2021-03-02 | General Electric Company | Method and robotic system for manipulating instruments |
TWI678181B (zh) * | 2018-04-30 | 2019-12-01 | 長庚大學 | 手術導引系統 |
EP3569159A1 (en) * | 2018-05-14 | 2019-11-20 | Orthotaxy | Surgical system for cutting an anatomical structure according to at least one target plane |
US11191594B2 (en) | 2018-05-25 | 2021-12-07 | Mako Surgical Corp. | Versatile tracking arrays for a navigation system and methods of recovering registration using the same |
US11292135B2 (en) | 2018-05-31 | 2022-04-05 | Mako Surgical Corp. | Rotating switch sensor for a robotic system |
DE102019004233B4 (de) | 2018-06-15 | 2022-09-22 | Mako Surgical Corp. | Systeme und verfahren zum verfolgen von objekten |
EP3581121A1 (en) | 2018-06-15 | 2019-12-18 | MAKO Surgical Corp. | Techniques for patient-specific milling path generation |
US11510737B2 (en) | 2018-06-21 | 2022-11-29 | Mako Surgical Corp. | Patella tracking |
DE102018211185A1 (de) * | 2018-07-06 | 2020-01-09 | Neuroloop GmbH | Vorrichtung zur transkutanen Lokalisation eines intrakorporal, subkutan verorteten medizinischen Implantats |
US11291507B2 (en) * | 2018-07-16 | 2022-04-05 | Mako Surgical Corp. | System and method for image based registration and calibration |
CN109009438B (zh) * | 2018-09-13 | 2021-06-01 | 上海逸动医学科技有限公司 | 柔性无创定位装置及其在术中手术路径规划的应用及系统 |
US11253330B2 (en) | 2018-09-26 | 2022-02-22 | Mako Surgical Corp. | Systems and tools for use with surgical robotic manipulators |
US10623660B1 (en) | 2018-09-27 | 2020-04-14 | Eloupes, Inc. | Camera array for a mediated-reality system |
US12076100B2 (en) | 2018-09-28 | 2024-09-03 | Auris Health, Inc. | Robotic systems and methods for concomitant endoscopic and percutaneous medical procedures |
JP2022502171A (ja) | 2018-09-28 | 2022-01-11 | オーリス ヘルス インコーポレイテッド | 医療器具をドッキングするためのシステム及び方法 |
US11707259B2 (en) | 2018-10-19 | 2023-07-25 | Canon U.S.A., Inc. | Wireless needle guidance using encoder sensor and encoder scale to achieve positional sensing between movable components |
US11684489B2 (en) | 2018-10-29 | 2023-06-27 | Mako Surgical Corp. | Robotic system for ankle arthroplasty |
EP3876859A1 (en) | 2018-11-08 | 2021-09-15 | Mako Surgical Corporation | Robotic spine surgery system and methods |
US11123142B2 (en) * | 2018-12-06 | 2021-09-21 | Biosense Webster (Israel) Ltd. | Quick registration of coordinate systems for robotic surgery |
US11547482B2 (en) | 2018-12-13 | 2023-01-10 | Mako Surgical Corp. | Techniques for patient-specific morphing of virtual boundaries |
US11819287B2 (en) | 2018-12-17 | 2023-11-21 | Zimmer Biomet Spine, Inc. | Universal navigation instrument adapter |
JP6701438B1 (ja) * | 2019-02-01 | 2020-05-27 | TCC Media Lab株式会社 | 合成画像生成システム及び初期条件リセットシステム |
EP3692939B1 (en) | 2019-02-07 | 2021-07-14 | Stryker European Operations Limited | Surgical systems for facilitating tissue treatment |
CN109758234B (zh) * | 2019-02-15 | 2020-07-31 | 哈尔滨工业大学 | 用于微创手术移动腹腔镜自动控制系统及其控制方法 |
US11564761B2 (en) | 2019-03-08 | 2023-01-31 | Mako Surgical Corp. | Systems and methods for controlling movement of a surgical tool along a predefined path |
EP3937821A1 (en) | 2019-03-15 | 2022-01-19 | Mako Surgical Corporation | Robotic surgical system and methods utilizing a cutting bur for bone penetration and cannulation |
JP7260877B2 (ja) * | 2019-05-21 | 2023-04-19 | 国立大学法人 東京大学 | ロボットハンド、ロボットハンドの制御装置、およびロボットシステム |
US12059804B2 (en) | 2019-05-22 | 2024-08-13 | Mako Surgical Corp. | Bidirectional kinematic mount |
EP3747389A1 (en) * | 2019-06-05 | 2020-12-09 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
WO2021003275A1 (en) * | 2019-07-01 | 2021-01-07 | Smith & Nephew, Inc. | Surgical assistant device |
US11832892B2 (en) | 2019-07-10 | 2023-12-05 | Mako Surgical Corp. | Navigation systems for communicating tracker status conditions |
EP3998968A2 (en) | 2019-07-15 | 2022-05-25 | Stryker Corporation | Robotic hand-held surgical instrument systems and methods |
FR3100884B1 (fr) * | 2019-09-17 | 2021-10-22 | Safran Electronics & Defense | Procédé et système de positionnement de véhicule mettant en œuvre un dispositif de capture d’image |
CN110695993B (zh) * | 2019-09-27 | 2021-02-02 | 哈尔滨工业大学(深圳) | 一种柔性机械臂同步测量方法、系统及装置 |
KR20220070212A (ko) | 2019-09-30 | 2022-05-30 | 마코 서지컬 코포레이션 | 도구의 이동을 안내하기 위한 시스템 및 방법 |
EP4037581A1 (en) | 2019-10-01 | 2022-08-10 | Mako Surgical Corp. | Surgical systems for guiding robotic manipulators |
DE102019007290A1 (de) * | 2019-10-21 | 2021-04-22 | Karl Storz Se & Co. Kg | Sensorbasiertes Chirurgie-Set und Verfahren |
FI20196022A1 (en) * | 2019-11-27 | 2021-05-28 | Novatron Oy | Method and positioning system for determining the position and orientation of a machine |
CN114901194B (zh) | 2019-12-31 | 2024-08-30 | 奥瑞斯健康公司 | 解剖特征识别和瞄准 |
WO2021137109A1 (en) | 2019-12-31 | 2021-07-08 | Auris Health, Inc. | Alignment techniques for percutaneous access |
CN118383870A (zh) | 2019-12-31 | 2024-07-26 | 奥瑞斯健康公司 | 用于经皮进入的对准界面 |
WO2021158367A1 (en) | 2020-02-04 | 2021-08-12 | Mako Surgical Corp. | Robotic hand-held surgical instrument systems with a visual indicator and methods of controlling the same |
US11298197B2 (en) * | 2020-02-13 | 2022-04-12 | Smith & Nephew, Inc. | Methods and systems for robotic-assisted insertion of medical fasteners |
CN111281541B (zh) * | 2020-03-09 | 2021-06-15 | 中国人民解放军总医院 | 检测手术中导航标志物移动的方法和装置 |
EP3886056A1 (en) | 2020-03-16 | 2021-09-29 | Stryker Australia PTY LTD | Automated cut planning for removal of diseased regions |
CN115379814A (zh) | 2020-03-27 | 2022-11-22 | 马科外科公司 | 用于基于虚拟边界控制工具的机器人移动的系统和方法 |
AU2021241699A1 (en) | 2020-03-27 | 2022-11-03 | Mako Surgical Corp. | Robotic spine surgery system and methods with haptic interface |
US10949986B1 (en) | 2020-05-12 | 2021-03-16 | Proprio, Inc. | Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene |
WO2021231994A1 (en) * | 2020-05-15 | 2021-11-18 | Jeffrey Wilde | Joint implant extraction and placement system and localization device used therewith |
US12070276B2 (en) * | 2020-06-09 | 2024-08-27 | Globus Medical Inc. | Surgical object tracking in visible light via fiducial seeding and synthetic image registration |
KR20230049062A (ko) | 2020-06-09 | 2023-04-12 | 스트리커 라이빙거 게엠바하 운트 콤파니 카게 | 컴퓨터 지원 중재를 위한 공간 인식 디스플레이 |
CN111956325B (zh) * | 2020-07-01 | 2021-08-20 | 北京和华瑞博医疗科技有限公司 | 一种医用器械的精准定位装置、方法和系统 |
US11980426B2 (en) | 2020-08-03 | 2024-05-14 | Warsaw Orthopedic, Inc. | System and method for preliminary registration |
US20220039898A1 (en) | 2020-08-05 | 2022-02-10 | Mako Surgical Corp. | Robotic surgical system including a coupler for connecting a tool to a manipulator and methods of using the coupler |
US11844697B2 (en) | 2020-09-03 | 2023-12-19 | Globus Medical, Inc. | Systems and methods for knee arthroplasty |
JP2023539710A (ja) | 2020-09-08 | 2023-09-19 | マコ サージカル コーポレーション | 手持ち式医療ロボット器具の動きをガイドするシステム及び方法 |
US20230329833A1 (en) | 2020-09-22 | 2023-10-19 | Mobius Imaging, Llc | Mount Assemblies For Use With Navigated Surgical Systems |
EP4216859A1 (en) | 2020-09-24 | 2023-08-02 | MAKO Surgical Corp. | Interlocking collet system for a surgical device |
AU2021376224A1 (en) | 2020-11-06 | 2023-06-22 | Stryker Corporation | Robotic hand-held surgical instrument systems and methods |
CN112641510B (zh) * | 2020-12-18 | 2021-08-17 | 北京长木谷医疗科技有限公司 | 关节置换手术机器人导航定位系统及方法 |
CN112641511B (zh) * | 2020-12-18 | 2021-09-10 | 北京长木谷医疗科技有限公司 | 关节置换手术导航系统及方法 |
WO2022147001A1 (en) | 2020-12-31 | 2022-07-07 | Mako Surgical Corp. | Robotic systems and methods for mitigating undesired orientational motion of kinematic components |
US11295460B1 (en) | 2021-01-04 | 2022-04-05 | Proprio, Inc. | Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene |
WO2022159568A1 (en) | 2021-01-20 | 2022-07-28 | Mako Surgical Corp. | Robotic hand-held surgical instrument systems and methods |
EP4280994A1 (en) | 2021-01-20 | 2023-11-29 | MAKO Surgical Corp. | Robotic hand-held surgical instrument systems and methods |
EP4291129A1 (en) | 2021-02-11 | 2023-12-20 | MAKO Surgical Corp. | Robotic manipulator comprising isolation mechanism for force/torque sensor |
US20240225775A9 (en) | 2021-02-26 | 2024-07-11 | Stryker European Operations Limited | Tracker And Related Accessories For A Surgical Navigation System |
WO2022182963A2 (en) | 2021-02-26 | 2022-09-01 | Mobius Imaging Llc | Rotational tracker adapter with biasing mechanism |
CN115525046A (zh) * | 2021-06-24 | 2022-12-27 | 深圳乐动机器人股份有限公司 | 机器人及其沿边控制方法 |
US20230013867A1 (en) | 2021-07-19 | 2023-01-19 | Mako Surgical Corp. | Surgical Tool Guard |
WO2023018650A1 (en) | 2021-08-10 | 2023-02-16 | Mako Surgical Corp. | Tracking apparatus for tracking a patient limb |
US12016642B2 (en) | 2021-09-08 | 2024-06-25 | Proprio, Inc. | Constellations for tracking instruments, such as surgical instruments, and associated systems and methods |
US20230190378A1 (en) | 2021-12-20 | 2023-06-22 | Mako Surgical Corp. | Robotic Systems, Methods And Software Programs For Modifying Tool Operation Based On Tissue Parameters |
CN114288021A (zh) * | 2021-12-31 | 2022-04-08 | 上海霖晏医疗科技有限公司 | 一种单游离追踪球的监测系统及方法 |
WO2023136930A2 (en) | 2022-01-12 | 2023-07-20 | Mako Surgical Corp. | Systems and methods for guiding movement of a hand-held medical robotic instrument |
AU2023209815A1 (en) | 2022-01-20 | 2024-08-08 | Mako Surgical Corp. | Robotic hand-held surgical system |
WO2023154301A2 (en) | 2022-02-08 | 2023-08-17 | Mobius Imaging, Llc | Resilient drape assemblies with guides for use with surgical robots |
WO2023154432A1 (en) | 2022-02-10 | 2023-08-17 | Mobius Imaging, Llc | Medical imaging system and methods |
CN114683279B (zh) * | 2022-02-17 | 2023-05-23 | 广东博智林机器人有限公司 | 导航精度的确定方法、装置和电子设备 |
US20230277256A1 (en) | 2022-03-02 | 2023-09-07 | Mako Surgical Corp. | Robotic System Including A Link Tracker |
AU2023257233A1 (en) | 2022-04-18 | 2024-10-24 | Mako Surgical Corp. | Systems and methods for guided placement of a robotic manipulator |
WO2023230034A1 (en) | 2022-05-25 | 2023-11-30 | Mobius Imaging, Llc | Medical imaging system and methods |
WO2023235483A1 (en) | 2022-06-03 | 2023-12-07 | Mako Surgical Corp. | Surgical robotic system with compliance mechanism |
WO2023248186A1 (en) | 2022-06-22 | 2023-12-28 | Stryker European Operations Limited | Surgical sagittal blade cartridge |
WO2024006413A1 (en) | 2022-06-29 | 2024-01-04 | Mobius Imaging, Llc | Mount assemblies with anchors for use with navigated surgical systems |
WO2024020088A1 (en) | 2022-07-20 | 2024-01-25 | Mako Surgical Corp. | Robotic hand-held surgical instrument systems and methods |
WO2024054392A1 (en) | 2022-09-09 | 2024-03-14 | Mako Surgical Corp. | Robotic surgical systems for guiding a tool along a path using hybrid automated/manual control |
WO2024081388A1 (en) | 2022-10-13 | 2024-04-18 | Howmedica Osteonics Corp. | System and method for implantable sensor registration |
WO2024129671A1 (en) | 2022-12-12 | 2024-06-20 | Mobius Imaging, Llc | Stabilization assembly for a mobile medical system |
US20240206983A1 (en) | 2022-12-21 | 2024-06-27 | Mako Surgical Corp. | Surgical Clamp Assembly For Fixing A Navigation Tracker To A Portion Of Bone |
WO2024145417A1 (en) | 2022-12-30 | 2024-07-04 | Mobius Imaging, Llc | Reference detector arrangement for computed tomography imaging system |
US20240315710A1 (en) | 2023-03-24 | 2024-09-26 | Mako Surgical Corp. | Anti-Skiving Guide Tube And Surgical System Including The Same |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002533721A (ja) * | 1998-12-23 | 2002-10-08 | イメージ・ガイディッド・テクノロジーズ・インコーポレイテッド | 複数センサーによって追跡されるハイブリッド3dプローブ |
US20060142657A1 (en) | 2002-03-06 | 2006-06-29 | Mako Surgical Corporation | Haptic guidance system and method |
Family Cites Families (204)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5506682A (en) | 1982-02-16 | 1996-04-09 | Sensor Adaptive Machines Inc. | Robot vision using targets |
KR970001431B1 (ko) | 1987-05-27 | 1997-02-06 | 쉬뢴도르프 게오르그 | 외과수술을 재생할 수 있게 광학적으로 표시하는 방법 및 장치 |
WO1991009375A1 (en) * | 1989-12-11 | 1991-06-27 | Caterpillar Inc. | Integrated vehicle positioning and navigation system, apparatus and method |
US5569578A (en) | 1990-04-10 | 1996-10-29 | Mushabac; David R. | Method and apparatus for effecting change in shape of pre-existing object |
US5086401A (en) | 1990-05-11 | 1992-02-04 | International Business Machines Corporation | Image-directed robotic system for precise robotic surgery including redundant consistency checking |
US5662111A (en) | 1991-01-28 | 1997-09-02 | Cosman; Eric R. | Process of stereotactic optical navigation |
US6167295A (en) | 1991-01-28 | 2000-12-26 | Radionics, Inc. | Optical and computer graphic stereotactic localizer |
US6006126A (en) | 1991-01-28 | 1999-12-21 | Cosman; Eric R. | System and method for stereotactic registration of image scan data |
US6675040B1 (en) | 1991-01-28 | 2004-01-06 | Sherwood Services Ag | Optical object tracking system |
US5279309A (en) | 1991-06-13 | 1994-01-18 | International Business Machines Corporation | Signaling device and method for monitoring positions in a surgical operation |
US5603318A (en) | 1992-04-21 | 1997-02-18 | University Of Utah Research Foundation | Apparatus and method for photogrammetric surgical localization |
DE4225112C1 (de) | 1992-07-30 | 1993-12-09 | Bodenseewerk Geraetetech | Einrichtung zum Messen der Position eines Instruments relativ zu einem Behandlungsobjekt |
AT399647B (de) | 1992-07-31 | 1995-06-26 | Truppe Michael | Anordnung zur darstellung des inneren von körpern |
US5497061A (en) | 1993-03-31 | 1996-03-05 | Hitachi, Ltd. | Method of controlling robot's compliance |
EP0700269B1 (en) | 1993-04-22 | 2002-12-11 | Image Guided Technologies, Inc. | System for locating relative positions of objects |
EP0699050B1 (en) | 1993-04-26 | 2004-03-03 | St. Louis University | Indicating the position of a probe |
US5829444A (en) | 1994-09-15 | 1998-11-03 | Visualization Technology, Inc. | Position tracking and imaging system for use in medical applications |
EP0951874A3 (en) | 1994-09-15 | 2000-06-14 | Visualization Technology, Inc. | Position tracking and imaging system for use in medical applications using a reference unit secured to a patients head |
US5765561A (en) | 1994-10-07 | 1998-06-16 | Medical Media Systems | Video-based surgical targeting system |
EP0950379B1 (en) | 1994-10-07 | 2004-03-31 | St. Louis University | Device for use with a surgical navigation system |
US5592401A (en) | 1995-02-28 | 1997-01-07 | Virtual Technologies, Inc. | Accurate, rapid, reliable position sensing using multiple sensing technologies |
US5930741A (en) | 1995-02-28 | 1999-07-27 | Virtual Technologies, Inc. | Accurate, rapid, reliable position sensing using multiple sensing technologies |
US6246898B1 (en) | 1995-03-28 | 2001-06-12 | Sonometrics Corporation | Method for carrying out a medical procedure using a three-dimensional tracking and imaging system |
US5577502A (en) | 1995-04-03 | 1996-11-26 | General Electric Company | Imaging of interventional devices during medical procedures |
US5730129A (en) | 1995-04-03 | 1998-03-24 | General Electric Company | Imaging of interventional devices in a non-stationary subject |
US5638819A (en) | 1995-08-29 | 1997-06-17 | Manwaring; Kim H. | Method and apparatus for guiding an instrument to a target |
US6351659B1 (en) | 1995-09-28 | 2002-02-26 | Brainlab Med. Computersysteme Gmbh | Neuro-navigation system |
US5682886A (en) | 1995-12-26 | 1997-11-04 | Musculographics Inc | Computer-assisted surgical system |
US5729475A (en) | 1995-12-27 | 1998-03-17 | Romanik, Jr.; Carl J. | Optical system for accurate monitoring of the position and orientation of an object |
US5828770A (en) | 1996-02-20 | 1998-10-27 | Northern Digital Inc. | System for determining the spatial position and angular orientation of an object |
US6122538A (en) | 1997-01-16 | 2000-09-19 | Acuson Corporation | Motion--Monitoring method and system for medical devices |
US6026315A (en) | 1997-03-27 | 2000-02-15 | Siemens Aktiengesellschaft | Method and apparatus for calibrating a navigation system in relation to image data of a magnetic resonance apparatus |
US6115128A (en) | 1997-09-17 | 2000-09-05 | The Regents Of The Univerity Of California | Multi-dimensional position sensor using range detectors |
US6226548B1 (en) | 1997-09-24 | 2001-05-01 | Surgical Navigation Technologies, Inc. | Percutaneous registration apparatus and method for use in computer-assisted surgical navigation |
US5923417A (en) | 1997-09-26 | 1999-07-13 | Northern Digital Incorporated | System for determining the spatial position of a target |
US5953683A (en) | 1997-10-09 | 1999-09-14 | Ascension Technology Corporation | Sourceless orientation sensor |
US20030163142A1 (en) | 1997-11-27 | 2003-08-28 | Yoav Paltieli | System and method for guiding the movements of a device to a target particularly for medical applications |
US6061644A (en) | 1997-12-05 | 2000-05-09 | Northern Digital Incorporated | System for determining the spatial position and orientation of a body |
US6228089B1 (en) | 1997-12-19 | 2001-05-08 | Depuy International Limited | Device for positioning and guiding a surgical instrument during orthopaedic interventions |
DE19817039A1 (de) | 1998-04-17 | 1999-10-21 | Philips Patentverwaltung | Anordnung für die bildgeführte Chirurgie |
US6176837B1 (en) | 1998-04-17 | 2001-01-23 | Massachusetts Institute Of Technology | Motion tracking system |
US6273896B1 (en) | 1998-04-21 | 2001-08-14 | Neutar, Llc | Removable frames for stereotactic localization |
EP1437100A1 (en) | 1998-05-28 | 2004-07-14 | Orthosoft Inc. | Interactive user interface for a computer system to assist in surgery |
WO2000001114A1 (en) | 1998-06-26 | 2000-01-06 | Digilens Inc. | Request-and-respond approach to reducing latency within a tracking system |
US6266142B1 (en) | 1998-09-21 | 2001-07-24 | The Texas A&M University System | Noncontact position and orientation measurement system and method |
US6322567B1 (en) | 1998-12-14 | 2001-11-27 | Integrated Surgical Systems, Inc. | Bone motion tracking system |
US6285902B1 (en) | 1999-02-10 | 2001-09-04 | Surgical Insights, Inc. | Computer assisted targeting device for use in orthopaedic surgery |
US6106464A (en) | 1999-02-22 | 2000-08-22 | Vanderbilt University | Apparatus and method for bone surface-based registration of physical space with tomographic images and for guiding an instrument relative to anatomical sites in the image |
US6665079B1 (en) | 1999-03-24 | 2003-12-16 | Science & Engineering Associates, Inc. | Method and apparatus for locating electromagnetic imaging and detection systems/devices |
US6466815B1 (en) | 1999-03-30 | 2002-10-15 | Olympus Optical Co., Ltd. | Navigation apparatus and surgical operation image acquisition/display apparatus using the same |
DE19914455B4 (de) | 1999-03-30 | 2005-07-14 | Siemens Ag | Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System |
JP2002542469A (ja) | 1999-04-19 | 2002-12-10 | ライカ・ゲオジステームス・アクチェンゲゼルシャフト | 1つのトラッカ−による間接的位置決定方法 |
DE19917867B4 (de) | 1999-04-20 | 2005-04-21 | Brainlab Ag | Verfahren und Vorrichtung zur Bildunterstützung bei der Behandlung von Behandlungszielen mit Integration von Röntgenerfassung und Navigationssystem |
CA2370960C (en) | 1999-04-20 | 2006-06-13 | Synthes (U.S.A.) | Device for the percutaneous obtainment of 3d-coordinates on the surface of a human or animal organ |
US6491699B1 (en) | 1999-04-20 | 2002-12-10 | Surgical Navigation Technologies, Inc. | Instrument guidance method and system for image guided surgery |
US6903721B2 (en) | 1999-05-11 | 2005-06-07 | Immersion Corporation | Method and apparatus for compensating for position slip in interface devices |
DE19946948A1 (de) | 1999-09-30 | 2001-04-05 | Philips Corp Intellectual Pty | Verfahren und Anordnung zur Bestimmung der Position eines medizinischen Instruments |
US6235038B1 (en) | 1999-10-28 | 2001-05-22 | Medtronic Surgical Navigation Technologies | System for translation of electromagnetic and optical localization systems |
US6499488B1 (en) | 1999-10-28 | 2002-12-31 | Winchester Development Associates | Surgical sensor |
US6288785B1 (en) | 1999-10-28 | 2001-09-11 | Northern Digital, Inc. | System for determining spatial position and/or orientation of one or more objects |
SE515374C2 (sv) | 1999-10-29 | 2001-07-23 | Abb Flexible Automation As | Förfarande och anordning för bestämning av ett objekts koordinater och orientering i ett referenskoordinatsystem |
WO2001037748A2 (en) | 1999-11-29 | 2001-05-31 | Cbyon, Inc. | Method and apparatus for transforming view orientations in image-guided surgery |
US7747312B2 (en) | 2000-01-04 | 2010-06-29 | George Mason Intellectual Properties, Inc. | System and method for automatic shape registration and instrument tracking |
US7104996B2 (en) | 2000-01-14 | 2006-09-12 | Marctec. Llc | Method of performing surgery |
US20010034530A1 (en) | 2000-01-27 | 2001-10-25 | Malackowski Donald W. | Surgery system |
US20010025183A1 (en) | 2000-02-25 | 2001-09-27 | Ramin Shahidi | Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body |
US6400460B1 (en) | 2000-04-10 | 2002-06-04 | Honeywell International Inc. | Multifunction optical sensor with variable detection threshold and noise suppression |
US7000469B2 (en) | 2000-04-21 | 2006-02-21 | Intersense, Inc. | Motion-tracking |
DE10025285A1 (de) | 2000-05-22 | 2001-12-06 | Siemens Ag | Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe |
GB0015683D0 (en) | 2000-06-28 | 2000-08-16 | Depuy Int Ltd | Apparatus for positioning a surgical instrument |
US7194296B2 (en) | 2000-10-31 | 2007-03-20 | Northern Digital Inc. | Flexible instrument with optical sensors |
US6581000B2 (en) | 2001-01-04 | 2003-06-17 | Carnegie Mellon University | Position location system and method |
US6691074B1 (en) | 2001-02-08 | 2004-02-10 | Netmore Ltd. | System for three dimensional positioning and tracking |
US6725079B2 (en) | 2001-06-20 | 2004-04-20 | Odin Medical Technologies, Ltd. | Dual pointer device and method for surgical navigation |
US6937033B2 (en) | 2001-06-27 | 2005-08-30 | Immersion Corporation | Position sensor with resistive element |
US6584339B2 (en) | 2001-06-27 | 2003-06-24 | Vanderbilt University | Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery |
ITMI20011635A1 (it) | 2001-07-27 | 2003-01-27 | G D S Giorgi Dynamic Stereotax | Dispositivo e procedimento di microchirurgia assistita dall'elaboratore |
AU2003239171A1 (en) | 2002-01-31 | 2003-09-02 | Braintech Canada, Inc. | Method and apparatus for single camera 3d vision guided robotics |
AU2003201616A1 (en) | 2002-02-07 | 2003-09-02 | Ecole Polytechnique Federale De Lausanne (Epfl) | Body movement monitoring device |
US6711431B2 (en) | 2002-02-13 | 2004-03-23 | Kinamed, Inc. | Non-imaging, computer assisted navigation system for hip replacement surgery |
US8095200B2 (en) | 2002-03-06 | 2012-01-10 | Mako Surgical Corp. | System and method for using a haptic device as an input device |
DE10217726A1 (de) | 2002-04-17 | 2003-11-27 | Heidenhain Gmbh Dr Johannes | Optische Positionsmesseinrichtung |
US6757582B2 (en) | 2002-05-03 | 2004-06-29 | Carnegie Mellon University | Methods and systems to control a shaping tool |
US20060282873A1 (en) | 2002-07-27 | 2006-12-14 | Sony Computer Entertainment Inc. | Hand-held controller having detectable elements for tracking purposes |
JP2004061459A (ja) | 2002-07-31 | 2004-02-26 | Canon Inc | 位置検出装置、これを備えたレンズおよび位置検出方法 |
US20040068178A1 (en) | 2002-09-17 | 2004-04-08 | Assaf Govari | High-gradient recursive locating system |
US7166114B2 (en) | 2002-09-18 | 2007-01-23 | Stryker Leibinger Gmbh & Co Kg | Method and system for calibrating a surgical tool and adapter thereof |
US6876926B2 (en) | 2002-09-26 | 2005-04-05 | Honeywell International Inc. | Method and system for processing pulse signals within an inertial navigation system |
US20040204646A1 (en) | 2002-11-04 | 2004-10-14 | V-Target Technologies Ltd. | Intracorporeal-imaging head |
DE10251600A1 (de) | 2002-11-06 | 2004-05-27 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Steuern von Bewegungen bei Handhabungsgeräten |
WO2004046754A2 (en) | 2002-11-14 | 2004-06-03 | General Electric Medical Systems Global Technology Company, Llc | Interchangeable localizing devices for use with tracking systems |
US7774158B2 (en) | 2002-12-17 | 2010-08-10 | Evolution Robotics, Inc. | Systems and methods for landmark generation for visual simultaneous localization and mapping |
US7505809B2 (en) | 2003-01-13 | 2009-03-17 | Mediguide Ltd. | Method and system for registering a first image with a second image relative to the body of a patient |
US7542791B2 (en) | 2003-01-30 | 2009-06-02 | Medtronic Navigation, Inc. | Method and apparatus for preplanning a surgical procedure |
US20040150560A1 (en) | 2003-01-31 | 2004-08-05 | Jun Feng | Positioning system and method |
US20040243148A1 (en) | 2003-04-08 | 2004-12-02 | Wasielewski Ray C. | Use of micro- and miniature position sensing devices for use in TKA and THA |
US6848304B2 (en) | 2003-04-28 | 2005-02-01 | Analog Devices, Inc. | Six degree-of-freedom micro-machined multi-sensor |
US7559931B2 (en) | 2003-06-09 | 2009-07-14 | OrthAlign, Inc. | Surgical orientation system and method |
WO2004112610A2 (en) | 2003-06-09 | 2004-12-29 | Vitruvian Orthopaedics, Llc | Surgical orientation device and method |
US20050049485A1 (en) | 2003-08-27 | 2005-03-03 | Harmon Kim R. | Multiple configuration array for a surgical navigation system |
US7862570B2 (en) | 2003-10-03 | 2011-01-04 | Smith & Nephew, Inc. | Surgical positioners |
US20050085718A1 (en) | 2003-10-21 | 2005-04-21 | Ramin Shahidi | Systems and methods for intraoperative targetting |
US20050085717A1 (en) | 2003-10-21 | 2005-04-21 | Ramin Shahidi | Systems and methods for intraoperative targetting |
US8337407B2 (en) | 2003-12-30 | 2012-12-25 | Liposonix, Inc. | Articulating arm for medical procedures |
DE102004005380A1 (de) | 2004-02-03 | 2005-09-01 | Isra Vision Systems Ag | Verfahren zur Bestimmung der Lage eines Objekts im Raum |
US20050267353A1 (en) | 2004-02-04 | 2005-12-01 | Joel Marquart | Computer-assisted knee replacement apparatus and method |
US7689321B2 (en) | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
US20050245820A1 (en) | 2004-04-28 | 2005-11-03 | Sarin Vineet K | Method and apparatus for verifying and correcting tracking of an anatomical structure during surgery |
US7702379B2 (en) | 2004-08-25 | 2010-04-20 | General Electric Company | System and method for hybrid tracking in surgical navigation |
DE102004047905A1 (de) | 2004-09-29 | 2006-04-20 | Augmented Solutions Gmbh | System und Verfahren zur Kalibrierung optischer Sensoren, insbesondere für Augmented Reality Systeme |
US7289227B2 (en) | 2004-10-01 | 2007-10-30 | Nomos Corporation | System and tracker for tracking an object, and related methods |
US9002432B2 (en) | 2004-11-15 | 2015-04-07 | Brainlab Ag | Method and device for calibrating a medical instrument |
DE102004057933A1 (de) | 2004-12-01 | 2006-06-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und eine Vorrichtung zum Navigieren und Positionieren eines Gegenstands relativ zu einem Patienten |
US20060161052A1 (en) | 2004-12-08 | 2006-07-20 | Perception Raisonnement Action En Medecine | Computer assisted orthopaedic surgery system for ligament graft reconstruction |
DE102004061764A1 (de) | 2004-12-22 | 2006-07-06 | Sebastian Pieck | Verfahren und Vorrichtung zur räumlichen Positionsmessung |
US20060190012A1 (en) | 2005-01-29 | 2006-08-24 | Aesculap Ag & Co. Kg | Method and apparatus for representing an instrument relative to a bone |
US20060178775A1 (en) | 2005-02-04 | 2006-08-10 | George Zhang | Accelerometer to monitor movement of a tool assembly attached to a robot end effector |
WO2006091494A1 (en) | 2005-02-22 | 2006-08-31 | Mako Surgical Corp. | Haptic guidance system and method |
IL167648A (en) | 2005-03-24 | 2011-01-31 | Elbit Systems Ltd | Hybrid tracker |
US10555775B2 (en) * | 2005-05-16 | 2020-02-11 | Intuitive Surgical Operations, Inc. | Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery |
DE102005026654A1 (de) * | 2005-06-09 | 2006-12-14 | Ife Industrielle Forschung Und Entwicklung Gmbh | Vorrichtung und Verfahren zur berührungslosen Vermessung der Geometrie, Raumposition und Raumorientierung von Körpern |
JP4231034B2 (ja) * | 2005-07-07 | 2009-02-25 | 株式会社日本ネットワークサポート | 柱補強ブロックおよび柱補強方法 |
WO2007014470A2 (en) | 2005-08-01 | 2007-02-08 | Resonant Medical Inc. | System and method for detecting drifts in calibrated tracking systems |
SE529780C2 (sv) | 2005-08-04 | 2007-11-20 | Hexagon Metrology Ab | Mätförfarande och mätanordning för användning i mätsystem såsom koordinatmätmaskiner |
US7421343B2 (en) | 2005-10-27 | 2008-09-02 | Honeywell International Inc. | Systems and methods for reducing vibration-induced errors in inertial sensors |
US20070225595A1 (en) * | 2006-01-17 | 2007-09-27 | Don Malackowski | Hybrid navigation system for tracking the position of body tissue |
EP1996108A4 (en) | 2006-03-23 | 2017-06-21 | Orthosoft, Inc. | Method and system for tracking tools in computer-assisted surgery |
CA2541635A1 (en) | 2006-04-03 | 2007-10-03 | Servo-Robot Inc. | Hybrid sensing apparatus for adaptive robotic processes |
US7556428B2 (en) | 2006-04-14 | 2009-07-07 | Xoran Technologies, Inc. | Surgical navigation system including patient tracker with removable registration appendage |
US8112292B2 (en) | 2006-04-21 | 2012-02-07 | Medtronic Navigation, Inc. | Method and apparatus for optimizing a therapy |
US20070270686A1 (en) | 2006-05-03 | 2007-11-22 | Ritter Rogers C | Apparatus and methods for using inertial sensing to navigate a medical device |
EP1857070A1 (de) | 2006-05-18 | 2007-11-21 | BrainLAB AG | Kontaktfreie medizintechnische Registrierung mit Distanzmessung |
US7868610B2 (en) | 2006-06-09 | 2011-01-11 | The Regents Of The University Of California | Angular motion tracking sensor |
FR2902871B1 (fr) | 2006-06-23 | 2008-08-29 | Thales Sa | Unite de mesure inertielle a tenue renforcee aux accelerations |
DE102006032127B4 (de) | 2006-07-05 | 2008-04-30 | Aesculap Ag & Co. Kg | Kalibrierverfahren und Kalibriervorrichtung für eine chirurgische Referenzierungseinheit |
DE102006034270A1 (de) | 2006-07-18 | 2008-01-24 | C. & E. Fein Gmbh | Ortungssystem zur Ortung der Position eines Werkzeugs |
WO2008017051A2 (en) | 2006-08-02 | 2008-02-07 | Inneroptic Technology Inc. | System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities |
EP2063802B1 (en) * | 2006-09-08 | 2019-03-13 | Medtronic, Inc. | System for navigating a planned procedure within a body |
DE502006004198D1 (de) | 2006-10-17 | 2009-08-20 | Brainlab Ag | Markernavigationssystem zum Erfassen und Darstellen der Lage von Markereinrichtungen |
DE502006003472D1 (de) | 2006-10-20 | 2009-05-28 | Brainlab Ag | Markernavigationsvorrichtung insbesondere für medizinische Zwecke |
US9220573B2 (en) | 2007-01-02 | 2015-12-29 | Medtronic Navigation, Inc. | System and method for tracking positions of uniform marker geometries |
US8047075B2 (en) | 2007-06-21 | 2011-11-01 | Invensense, Inc. | Vertically integrated 3-axis MEMS accelerometer with electronics |
US8141424B2 (en) | 2008-09-12 | 2012-03-27 | Invensense, Inc. | Low inertia frame for detecting coriolis acceleration |
US8814874B2 (en) * | 2007-02-13 | 2014-08-26 | Medtronic Navigation, Inc. | Navigated cut guide for total knee reconstruction |
EP1970005B1 (en) | 2007-03-15 | 2012-10-03 | Xsens Holding B.V. | A system and a method for motion tracking using a calibration unit |
US9289270B2 (en) | 2007-04-24 | 2016-03-22 | Medtronic, Inc. | Method and apparatus for performing a navigated procedure |
US8100769B2 (en) | 2007-05-09 | 2012-01-24 | Nintendo Co., Ltd. | System and method for using accelerometer outputs to control an object rotating on a display |
US20080319491A1 (en) * | 2007-06-19 | 2008-12-25 | Ryan Schoenefeld | Patient-matched surgical component and methods of use |
US8019538B2 (en) | 2007-07-25 | 2011-09-13 | Honeywell International Inc. | System and method for high accuracy relative navigation |
US8024119B2 (en) | 2007-08-14 | 2011-09-20 | Honeywell International Inc. | Systems and methods for gyrocompass alignment using dynamically calibrated sensor data and an iterated extended kalman filter within a navigation system |
US8082064B2 (en) | 2007-08-24 | 2011-12-20 | Elite Engineering Corporation | Robotic arm and control system |
US8315690B2 (en) | 2007-10-02 | 2012-11-20 | General Electric Company | Dynamic reference method and system for interventional procedures |
EP2055255A1 (de) | 2007-10-31 | 2009-05-06 | BrainLAB AG | Verifizierung des Kalibrierungszustandes eines optischen Trackingsystems |
CA2700475A1 (en) | 2007-11-30 | 2009-06-04 | Orthosoft Inc. | Optical tracking cas system |
DE102007059599B4 (de) | 2007-12-11 | 2017-06-22 | Siemens Healthcare Gmbh | Vorrichtung für eine medizinische Intervention und Betriebsverfahren für eine Vorrichtung für eine medizinische Intervention |
JP5561458B2 (ja) | 2008-03-18 | 2014-07-30 | 国立大学法人浜松医科大学 | 手術支援システム |
CN101977557B (zh) | 2008-03-25 | 2013-03-13 | 奥索瑟夫特公司 | 用于规划/引导对骨骼的改变的系统 |
US9579161B2 (en) | 2008-05-06 | 2017-02-28 | Medtronic Navigation, Inc. | Method and apparatus for tracking a patient |
US9285459B2 (en) | 2008-05-09 | 2016-03-15 | Analog Devices, Inc. | Method of locating an object in 3D |
US20090312629A1 (en) | 2008-06-13 | 2009-12-17 | Inneroptic Technology Inc. | Correction of relative tracking errors based on a fiducial |
US20100030063A1 (en) | 2008-07-31 | 2010-02-04 | Medtronic, Inc. | System and method for tracking an instrument |
DE102008041260A1 (de) | 2008-08-14 | 2010-02-25 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren zum Betreiben eines medizinischen Roboters, medizinischer Roboter und medizinischer Arbeitsplatz |
EP2153794B1 (en) * | 2008-08-15 | 2016-11-09 | Stryker European Holdings I, LLC | System for and method of visualizing an interior of a body |
US8848974B2 (en) * | 2008-09-29 | 2014-09-30 | Restoration Robotics, Inc. | Object-tracking systems and methods |
EP2179703B1 (de) * | 2008-10-21 | 2012-03-28 | BrainLAB AG | Integration von chirurgischem Instrument und Anzeigevorrichtung zur Unterstützung der bildgeführten Chirurgie |
US20100130853A1 (en) | 2008-11-25 | 2010-05-27 | General Electric Company | System for tracking object |
JP2010145274A (ja) | 2008-12-19 | 2010-07-01 | Panasonic Corp | 慣性センサ |
KR100996826B1 (ko) | 2008-12-31 | 2010-11-26 | 주식회사 사이버메드 | 수술용 항법 장치용 도구의 교정 방법 |
US8611985B2 (en) | 2009-01-29 | 2013-12-17 | Imactis | Method and device for navigation of a surgical tool |
US8690776B2 (en) * | 2009-02-17 | 2014-04-08 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image guided surgery |
JP2010216880A (ja) | 2009-03-13 | 2010-09-30 | Omron Corp | 変位センサ |
CN105596005B (zh) | 2009-03-26 | 2019-01-22 | 直观外科手术操作公司 | 用于内窥镜导航的系统 |
FR2944203A1 (fr) | 2009-04-08 | 2010-10-15 | Gen Electric | Systeme et procede pour determiner la position d'un instrument medical |
JP4957753B2 (ja) | 2009-06-15 | 2012-06-20 | セイコーエプソン株式会社 | ロボット、搬送装置、及び慣性センサーを用いた制御方法 |
JP2012531580A (ja) | 2009-06-23 | 2012-12-10 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 位置決定システム |
DE102009030731A1 (de) * | 2009-06-26 | 2010-12-30 | Fiagon Gmbh | Verfahren zum Erzeugen von Positionsdaten eines Instrumentes |
WO2011001300A1 (en) | 2009-06-29 | 2011-01-06 | Koninklijke Philips Electronics, N.V. | Method and system for position determination |
JP6200152B2 (ja) | 2009-06-29 | 2017-09-20 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 医療処置におけるトラッキング方法及び装置 |
US20110045736A1 (en) | 2009-08-20 | 2011-02-24 | Charles Randy Wooten | Effect Generating Device in Response to User Actions |
US8494614B2 (en) | 2009-08-31 | 2013-07-23 | Regents Of The University Of Minnesota | Combination localization system |
US8494613B2 (en) | 2009-08-31 | 2013-07-23 | Medtronic, Inc. | Combination localization system |
US20110105895A1 (en) | 2009-10-01 | 2011-05-05 | Giora Kornblau | Guided surgery |
US8743368B2 (en) | 2009-11-12 | 2014-06-03 | General Electric Company | Optical sensor system and method of sensing |
US9675302B2 (en) * | 2009-12-31 | 2017-06-13 | Mediguide Ltd. | Prolapse detection and tool dislodgement detection |
US8615127B2 (en) | 2010-01-15 | 2013-12-24 | Vanderbilt University | System and method for point-based rigid registration with anisotropic weighting |
WO2011089606A1 (en) | 2010-01-20 | 2011-07-28 | Creative Team Instruments Ltd. | Orientation dector for use with a hand-held surgical or dental tool |
US9901405B2 (en) | 2010-03-02 | 2018-02-27 | Orthosoft Inc. | MEMS-based method and system for tracking a femoral frame of reference |
US9341704B2 (en) | 2010-04-13 | 2016-05-17 | Frederic Picard | Methods and systems for object tracking |
US20110257909A1 (en) | 2010-04-14 | 2011-10-20 | Moog Inc. | Inertially referenced sensor system and method |
CN102892352A (zh) | 2010-04-22 | 2013-01-23 | 蓝带技术有限责任公司 | 被导航徒手外科手术工具和工具包 |
US9706948B2 (en) | 2010-05-06 | 2017-07-18 | Sachin Bhandari | Inertial sensor based surgical navigation system for knee replacement surgery |
US9226799B2 (en) | 2010-06-23 | 2016-01-05 | Mako Surgical Corp. | Inertially tracked objects |
US9597156B2 (en) | 2010-07-30 | 2017-03-21 | Orthosoft Inc. | Bone tracking with a gyroscope sensor in computer-assisted surgery |
US20120046536A1 (en) * | 2010-08-20 | 2012-02-23 | Manhattan Technologies, Llc | Surgical Instrument Navigation Systems and Methods |
US9913693B2 (en) | 2010-10-29 | 2018-03-13 | Medtronic, Inc. | Error correction techniques in surgical navigation |
AU2011342900A1 (en) * | 2010-12-17 | 2013-07-18 | Intellijoint Surgical Inc. | Method and system for aligning a prosthesis during surgery |
CN202146362U (zh) * | 2010-12-30 | 2012-02-22 | 上海交通大学医学院附属第九人民医院 | 一种基于光学导航七自由度颅颌面手术辅助机械臂 |
ES2562704T3 (es) | 2010-12-30 | 2016-03-07 | Ar Innovation Ag | Método para configurar un sensor de movimiento, así como un sensor de movimiento configurable y un sistema para configurar dicho sensor de movimiento |
WO2012178031A1 (en) | 2011-06-23 | 2012-12-27 | Stryker Corporation | Prosthetic implant and method of implantation |
WO2013033566A1 (en) | 2011-09-02 | 2013-03-07 | Stryker Corporation | Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing |
WO2013192598A1 (en) | 2012-06-21 | 2013-12-27 | Excelsius Surgical, L.L.C. | Surgical robot platform |
KR102304096B1 (ko) | 2012-08-03 | 2021-09-24 | 스트리커 코포레이션 | 로봇 수술을 위한 시스템 및 방법 |
US9008757B2 (en) * | 2012-09-26 | 2015-04-14 | Stryker Corporation | Navigation system including optical and non-optical sensors |
KR102430277B1 (ko) | 2015-11-27 | 2022-08-09 | 큐렉소 주식회사 | 정형외과 수술용 마커 위치 확인 시스템 및 그 확인 방법 |
-
2013
- 2013-09-24 US US14/035,207 patent/US9008757B2/en active Active
- 2013-09-25 WO PCT/US2013/061642 patent/WO2014052428A1/en active Application Filing
- 2013-09-25 AU AU2013323646A patent/AU2013323646B2/en active Active
- 2013-09-25 JP JP2015533296A patent/JP6370789B2/ja active Active
- 2013-09-25 CN CN201811105300.0A patent/CN109171964B/zh active Active
- 2013-09-25 CN CN201380050199.2A patent/CN104684502B/zh active Active
- 2013-09-25 CA CA2883508A patent/CA2883508A1/en not_active Abandoned
- 2013-09-25 KR KR1020157005182A patent/KR101974102B1/ko active IP Right Grant
- 2013-09-25 EP EP21167566.5A patent/EP3884900A1/en active Pending
- 2013-09-25 EP EP13776882.6A patent/EP2900164B1/en active Active
- 2013-09-25 KR KR1020217003677A patent/KR102310664B1/ko active IP Right Grant
- 2013-09-25 CN CN202110822755.XA patent/CN113545854B/zh active Active
- 2013-09-25 KR KR1020197011736A patent/KR102216509B1/ko active IP Right Grant
-
2015
- 2015-03-02 US US14/635,402 patent/US9271804B2/en active Active
-
2016
- 2016-01-13 US US14/994,236 patent/US9687307B2/en active Active
-
2017
- 2017-05-19 US US15/599,935 patent/US10575906B2/en active Active
- 2017-11-20 AU AU2017264974A patent/AU2017264974B2/en active Active
-
2018
- 2018-05-18 JP JP2018096414A patent/JP6636566B2/ja active Active
- 2018-05-18 JP JP2018096415A patent/JP6684308B2/ja active Active
-
2019
- 2019-02-04 AU AU2019200725A patent/AU2019200725B2/en active Active
-
2020
- 2020-02-06 US US16/783,654 patent/US11529198B2/en active Active
-
2022
- 2022-11-08 US US17/982,830 patent/US20230056674A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002533721A (ja) * | 1998-12-23 | 2002-10-08 | イメージ・ガイディッド・テクノロジーズ・インコーポレイテッド | 複数センサーによって追跡されるハイブリッド3dプローブ |
US20060142657A1 (en) | 2002-03-06 | 2006-06-29 | Mako Surgical Corporation | Haptic guidance system and method |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102216509B1 (ko) | 광학 및 비광학 센서를 포함하는 네비게이션 시스템 | |
US11806089B2 (en) | Merging localization and vision data for robotic control | |
EP2996611B1 (en) | Systems and software for establishing virtual constraint boundaries | |
EP3052042B1 (en) | System for interacting with an object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
A107 | Divisional application of patent | ||
GRNT | Written decision to grant |