KR101974102B1 - 광학 및 비광학 센서를 포함하는 네비게이션 시스템 - Google Patents

광학 및 비광학 센서를 포함하는 네비게이션 시스템 Download PDF

Info

Publication number
KR101974102B1
KR101974102B1 KR1020157005182A KR20157005182A KR101974102B1 KR 101974102 B1 KR101974102 B1 KR 101974102B1 KR 1020157005182 A KR1020157005182 A KR 1020157005182A KR 20157005182 A KR20157005182 A KR 20157005182A KR 101974102 B1 KR101974102 B1 KR 101974102B1
Authority
KR
South Korea
Prior art keywords
marker
tracker
delete delete
optical
coordinate system
Prior art date
Application number
KR1020157005182A
Other languages
English (en)
Other versions
KR20150064015A (ko
Inventor
천우 우
Original Assignee
스트리커 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스트리커 코포레이션 filed Critical 스트리커 코포레이션
Publication of KR20150064015A publication Critical patent/KR20150064015A/ko
Application granted granted Critical
Publication of KR101974102B1 publication Critical patent/KR101974102B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • A61B2034/2053Tracking an applied voltage gradient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0818Redundant systems, e.g. using two independent measuring systems and comparing the signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • A61B2090/3945Active visible markers, e.g. light emitting diodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

물체의 위치 및/또는 방향을 결정하기 위해 광학 센서 및 비광학 센서를 이용하는 시스템 및 방법. 네비게이션 시스템은 마커로부터 광학 신호를 수신하기 위한 광학 센서 및 비광학 데이터를 생성하기 위한 자이로스코프와 같은 비광학 센서를 포함한다. 네비게이션 컴퓨터는 광학 및 비광학 데이터에 기초하여 물체의 위치 및/또는 방향을 결정한다.

Description

광학 및 비광학 센서를 포함하는 네비게이션 시스템 {NAVIGATION SYSTEM INCLUDING OPTICAL AND NON-OPTICAL SENSORS}
관련 출원
본 출원은 그 전체 내용이 참조로서 여기에 통합되는, 2012년 9월 26일자로 출원된 미국 가특허출원 제61/705,804호 및 2013년 9월 24일자로 출원된 미국 가특허출원 제14/035207호의 우선권 및 이익을 주장한다.
본 발명은 일반적으로 시간의 경과에 따라 물체의 위치 및/또는 방향의 변화를 결정함으로써 공간에서 물체를 추적하는 네비게이션 시스템에 관한 것이다. 더욱 구체적으로, 본 발명은 물체의 위치 및/또는 방향을 결정하기 위해 광학 센서 및 비광학 센서를 이용하는 네비게이션 시스템에 관한 것이다.
네비게이션 시스템은 유저가 정밀하게 물체를 위치 결정하는 것을 지원한다. 예를 들어, 네비게이션 시스템은 산업, 항공우주, 방위, 및 의료 어플리케이션에 사용된다. 의료 분야에서, 네비게이션 시스템은 의사가 환자의 신체에 대해 수술 도구를 정밀하게 위치시키는 것을 돕는다.
네비게이션 시스템이 사용되는 수술은 신경외과 수술 및 정형외과 수술을 포함한다. 종종 기구와 신체가 디스플레이 상에 보여지는 그 상대적 이동과 함께 추적된다. 네비게이션 시스템은 신체의 수술 전 이미지 또는 수술 중 이미지와 함께 이동하는 기구를 표시할 수 있다. 수술 전 이미지는 통상적으로 MRI 또는 CT 스캔에 의해 준비되며, 수술 중 이미지는 형광 투시경, 로우 레벨 x-선 또는 임의의 유사한 디바이스를 이용하여 준비될 수 있다. 대안적으로, 일부 시스템은, 환자의 신체가 네비게이션 탐침에 의해 "페인팅되고" 표시를 위해 해부학적 모델로 수학적으로 맞추어지는 이미지가 없는 것이다.
네비게이션 시스템은 기구 및 신체의 위치 및/또는 방향을 추적하기 위하여 광학 신호, 음향파, 자기장, RF 신호 등을 채용할 수 있다. 광학 네비게이션 시스템이 이러한 시스템의 정확도로 인해 폭넓게 사용된다.
종래 기술의 네비게이션 시스템은 (전하 결합 소자 즉 CCD와 같은) 하나 이상의 광학 센서를 하우징하는 하나 이상의 카메라를 통상적으로 포함한다. 광학 센서는 기구 및 신체에 부착된 추적기로부터 방출되는 광을 검출한다. 각각의 추적기는 LED의 위치를 결정하기 위해 주기적으로 광을 센서에 송신하는 발광 다이오드(LED)와 같은 복수의 발광기를 갖는다.
기구 추적기 상의 LED의 위치는 카메라 좌표계에 대해 기구의 워킹 엔드(working end)의 좌표에 상관된다. 신체 추적기(들) 상의 LED의 위치는 카메라 좌표계에 대해 3차원 공간에서 신체의 타겟 영역의 좌표에 상관된다. 따라서, 신체의 타겟 영역에 대한 기구의 워킹 엔드의 위치 및/또는 방향이 추적 및 표시될 수 있다.
네비게이션 시스템은 수술 기구의 이동을 제어하기 위해 폐쇄 루프 방식으로 사용될 수 있다. 이러한 네비게이션 시스템에서, 네비게이션 시스템이 그 위치 및 방향을 추적할 수 있도록, 기구 및 치료되고 있는 신체 양쪽은 추적기가 갖추어져 있다. 그 후, 네비게이션 시스템으로부터의 정보는 기구의 이동을 제어하거나 안내하기 위해 제어 시스템으로 공급된다. 일부 경우에, 기구는 로봇에 의해 보유되고, 정보는 네비게이션 시스템으로부터 로봇의 제어 시스템으로 전송된다.
제어 시스템이 기구와 치료 중인 신체 사이의 상대적 이동을 신속하게 확인하기 위하여, 네비게이션 시스템의 정확도 및 속도는 절차의 원하는 공차를 충족시켜야 한다. 예를 들어, 무시멘트 무릎 임플란트와 연관된 공차는 임플란트의 정확한 맞춤 및 기능을 보장하기 위해 매우 작을 수 있다. 따라서, 네비게이션 시스템의 정확도 및 속도는 더욱 거친 절단 절차에서보다 훨씬 더 클 필요가 있을 수 있다.
광학 네비게이션 시스템의 정확도 및 속도에 대한 제약 중 하나는, 그 시스템이 LED와 카메라의 광학 센서 사이의 시선에 의존한다는 것이다. 시선이 깨지면, 시스템은 기구와 치료 중인 신체의 위치 및/또는 방향을 정확하게 결정하지 못할 수 있다. 그 결과, 수술은 많은 시작과 중단에 직면할 수 있다. 예를 들어, 로봇으로 지원되는 절단의 제어 중에, 시선이 깨어졌을 때, 절단 툴은 시선이 회복될 때까지 불능화되어야 한다. 이것은 절차에 상당한 지연과 추가된 비용을 야기할 수 있다.
정확도에 대한 다른 제약은 추적기 상의 능동 LED를 사용할 때 발생한다. 이러한 시스템에서, LED는 종종 순차적으로 점등된다. 이 경우에, 능동적으로 점등된 LED의 위치만이 측정되고 시스템에 의해 알려지며, 나머지 측정되지 않은 LED의 위치는 알려지지 않는다. 이러한 시스템에서, 나머지 측정되지 않은 LED의 위치는 근사화된다. 근사화는 보통 현재 측정되지 않은 LED의 최후에 알려진 측정 위치로부터 외삽된 선형 속도 데이터에 기초한다. 하지만, LED가 순차적으로 점등되므로, 임의의 하나의 LED의 측정 사이에 상당한 지연이 있을 수 있다. 이러한 지연은 시스템에서 사용되는 각각의 추가적인 추적기로 증가한다. 또한, 이러한 근사화는 추적기의 회전을 고려하지 않으므로, 추적기에 대한 위치 데이터의 추가적으로 가능한 오차로 귀결된다.
그 결과, 본 기술 분야에서 추가적인 비광학 기반 데이터를 이용하는 광학 네비게이션 시스템이 로봇으로 지원되는 수술 절단과 같은 정밀한 수술 절차에 대해 물체의 위치 및/또는 방향을 결정하는 정확도 및 속도의 레벨을 제공하고 추적을 향상시키는 것이 필요하다.
본 발명은 물체의 위치 및/또는 방향을 결정하기 위하여 광학 센서 및 비광학 센서를 이용하는 시스템 및 방법에 관한 것이다.
본 발명의 하나의 버전에서 물체를 추적하기 위해 네비게이션 시스템이 제공된다. 네비게이션 시스템은 추적기 상의 하나 이상의 마커로부터 광학 신호를 수신하는 광학 센서를 포함한다. 또한, 추적기는 비광학 신호를 생성하는 비광학 센서를 포함한다. 컴퓨팅 시스템은 제1 광학 신호에 기초하여 제1 시간에서 마커들 중 하나의 위치를 결정한다. 또한, 컴퓨팅 시스템은 제1 광학 신호와 비광학 센서로부터의 비광학 신호에 기초하여 제1 시간에 하나 이상의 다른 마커들의 위치를 결정한다. 결정된 위치는 그 후에 물체의 위치를 추적하기 위하여 물체에 상관된다.
본 발명의 다른 버전에서, 네비게이션 시스템이 물체를 추적하기 위해 제공된다. 네비게이션 시스템은 추적기 상의 3개의 마커로부터 순차적으로 광학 신호를 수신하는 광학 센서를 포함한다. 또한, 추적기는 비광학 신호를 생성하는 비광학 센서를 포함한다. 컴퓨팅 시스템은 제1 마커로부터의 제1 광학 신호에 기초하여 제1 시간에서 마커들의 제1 마커의 위치를 결정한다. 또한, 컴퓨팅 시스템은 비광학 센서로부터의 비광학 신호와 제1 광학 신호에 기초하여 제1 시간에 마커들의 제2 마커 및 제3 마커의 위치를 결정한다. 결정된 위치는 그 후 물체의 위치를 추적하기 위해 물체에 상관된다.
본 발명의 또 다른 버전에서, 로봇식 수술 절단 시스템이 제공된다. 시스템은 로봇식 조작자 및 절단 툴을 포함한다. 로봇식 제어 시스템은 적어도 5도의 자유도로 절단 툴의 이동을 제어 또는 제한한다. 네비게이션 시스템은 로봇식 제어 시스템과 통신한다. 네비게이션 시스템은 적어도 하나의 광학 센서와 로봇식 조작자에 장착된 추적기를 포함한다. 또한, 추적기가 환자의 신체에 대한 장착을 위해 제공된다. 이러한 신체 추적기는 3개의 마커와 비광학 센서를 포함한다. 광학 센서는 마커로부터 광학 신호를 수신하고, 비광학 센서는 비광학 신호를 생성한다. 네비게이션 시스템은, 절단이 미리 규정된 경계 내에서 일어나도록 신체의 절단을 제어하기 위해 로봇식 제어 시스템으로 신체의 위치를 나타내는 위치 데이터를 전달한다.
본 발명의 또 다른 버전에서, 적어도 하나의 광학 센서를 갖는 로컬라이저를 포함하는 네비게이션 시스템이 제공된다. 추적기는 광학 센서와 통신한다. 추적기는 3개의 마커와 비광학 센서를 포함한다. 컴퓨팅 시스템은 광학 신호 및 비광학 신호에 기초하여 로컬라이저 좌표계에서 3개의 마커 각각의 위치를 결정한다. 컴퓨팅 시스템은 로컬라이저 좌표계에서의 하나 이상의 마커들의 결정된 위치들과 추적기 좌표계에 대해 확립된 추적기의 모델에서의 하나 이상의 마커들의 위치를 매칭하는 매칭 알고리즘을 수행하여 추적기 좌표계를 로컬라이저 좌표계로 변환하는 변환 행렬을 얻는다.
본 발명의 또 다른 버전에서, 물체를 추적하기 위한 시스템이 제공된다. 시스템은 적어도 2개의 광학 센서와 물체에 장착하기 위한 추적기를 포함한다. 추적기는 3개의 마커와 비광학 센서를 갖는다. 적어도 2개의 광학 센서는 적어도 100Hz의 광학 감지 주파수에서 마커들로부터 광학 신호를 수신한다. 비광학 센서는 적어도 100Hz의 비광학 감지 주파수에서 비광학 신호를 생성한다.
물체를 추적하기 위한 방법이 또한 제공된다. 본 방법은 마커로부터 순차적으로 광학 신호를 수신하도록 광학 센서를 동작시키는 단계와 비광학 신호를 생성하도록 비광학 센서를 동작시키는 단계를 포함한다. 제1 시간에서 마커들의 제1 마커의 위치는 제1 마커로부터의 제1 광학 신호에 기초하여 결정된다. 제1 시간에서 마커들의 제2 마커 및 제3 마커의 위치는 제1 광학 신호와 비광학 센서로부터의 비광학 신호에 기초하여 결정된다. 제1 마커, 제2 마커 및 제3 마커의 결정된 위치는 수술 절차 중에 물체의 위치를 추적하기 위해 물체에 상관된다.
수술 절차 중에 물체를 추적하기 위한 다른 방법이 제공된다. 본 발명에서, 광학 센서가 마커로부터 순차적으로 광학 신호를 수신하도록 3개의 마커가 광학 센서의 시야에 위치된다. 그러면 컴퓨팅 시스템은 제1 마커로부터의 제1 광학 신호에 기초하여 제1 시간에서 마커들의 제1 마커의 위치를 결정하고, 제1 광학 신호 및 비광학 센서로부터의 비광학 신호에 기초하여 제1 시간에서 마커들의 제2 마커 및 제3 마커의 위치를 결정한다. 그 위치는 그 후 수술 절차 중에 물체의 위치를 추적하기 위해 물체에 상관된다.
본 발명의 이점은, 첨부 도면과 함께 고려될 때 후술하는 상세한 설명을 참조하여 그 이점이 더욱 잘 이해되므로 용이하게 이해될 것이다:
도 1은 로봇식 조작자와 함께 사용 중인 본 발명의 네비게이션 시스템의 사시도이다.
도 2는 네비게이션 시스템의 개략도이다.
도 3은 네비게이션 시스템과 함께 사용되는 좌표계의 개략도이다.
도 4는 네비게이션 시스템의 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
도 4a는 변환 행렬을 얻기 위하여 측정된 LED와 추적기 모델을 매칭하는 개략도이다.
도 5는 제1 대안적인 실시예에서 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
도 5a는 실제 및 가상 LED를 포함하는 추적기 모델의 도면이다.
도 6은 제2 대안적인 실시예에서 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
도 7은 하나 이상의 LED가 측정으로부터 차단되었을 때 로컬화 엔진에 의해 수행되는 스텝의 흐름도이다.
Ⅰ. 개요
도 1을 참조하면 수술 네비게이션 시스템(20)이 나타내어진다. 시스템(20)은 의료 시설의 수술실과 같은 수술 준비에서 도시된다. 네비게이션 시스템(20)은 수술실에서 다양한 물체의 이동을 추적하기 위해 설정된다. 이러한 물체는 예를 들어, 수술 도구(22), 환자의 대퇴골 F 및 환자의 경골 T를 포함한다. 네비게이션 시스템(20)은 의사에게 이들의 상대적 위치 및 방향을 표시할 목적으로, 그리고 일부 경우에 미리 규정된 경로 또는 해부학적 경계에 대한 수술 기구(22)의 이동을 제어 또는 제약할 목적으로 이러한 물체를 추적한다.
수술 네비게이션 시스템(20)은 네비게이션 컴퓨터(26)를 하우징하는 컴퓨터 카트 조립체를 포함한다. 네비게이션 인터페이스는 네비게이션 컴퓨터(26)와 통신하여 동작한다. 네비게이션 인터페이스는 살균 필드의 이부에 위치되도록 구성된 디스플레이(28)와 살균 필드의 내부에 위치되도록 구성된 디스플레이(29)를 포함한다. 디스플레이(28, 29)는 컴퓨터 카트 조립체(24)에 조정가능하게 장착된다. 마우스 및 키보드와 같은 입력 디바이스(30, 32)는 네비게이션 컴퓨터(26)로 정보를 입력하거나 아니면 네비게이션 컴퓨터(26)의 특정 양태를 선택/제어하는 데 사용될 수 있다. 디스플레이(28, 29) 상의 터치 스크린(미도시) 또는 음성 구동을 포함하는 다른 입력 디바이스가 고려된다.
로컬라이저(34)는 네비게이션 컴퓨터(26)와 통신한다. 도시된 실시예에서, 로컬라이저(34)는 광학 로컬라이저이고 카메라 유닛(36)을 포함한다. 카메라 유닛(36)은 하나 이상의 광학 센서(40)를 하우징하는 외부 케이싱(38)을 갖는다. 일부 실시예에서, 적어도 2개의 광학 센서(40), 바람직하게는 3개가 채용된다. 광학 센서(40)는 3개의 별개의 고해상도 전하 결합 소자(CCD)일 수 있다. 일 실시예에서, 3개의 1차원 CCD가 채용된다. 다른 실시예에서는 별개의 CCD, 또는 2개 이상의 CCD를 각각 갖는 별개의 카메라 유닛이 또한 수술실 주위에 배치될 수 있다. CCD는 적외선(IR) 신호를 검출한다.
카메라 유닛(36)은 이상적으로는 장애가 없는 후술하는 추적기의 시야를 카메라 유닛(36)에 제공하기 위해 절차가 행해지는 존 위에 광학 센서(40)를 위치 결정하기 위해 조정가능한 아암 상에 장착된다.
카메라 유닛(36)은 광학 센서(40)로부터 신호를 수신하기 위해 광학 센서(40)와 통신하는 카메라 컨트롤러(42)를 포함한다. 카메라 컨트롤러(42)는 유선 또는 무선 접속(미도시) 중 어느 하나를 통해 네비게이션 컴퓨터(26)와 통신한다. 이러한 접속은 고속 통신 및 동시성의 실시간 데이터 전송을 위한 직렬 버스 인터페이스 표준인 IEEE 1394 인터페이스일 수 있다. 또한, 접속은 회사 특정 프로토콜을 사용할 수 있다. 다른 실시예에서, 광학 센서(40)는 네비게이션 컴퓨터(26)와 직접 통신한다.
위치 및 방향 신호 및/또는 데이터는 물체를 추적하기 위해 네비게이션 컴퓨터(26)로 송신된다. 컴퓨터 카트 조립체(24), 디스플레이(28) 및 카메라 유닛(36)은 참조로써 여기에 통합되고, 발명의 명칭이 "Surgery System"이고 2010년 5월 25일 발행된 Malackowski 등의 미국 특허 제7,725,162호에 설명된 것과 같을 수 있다.
네비게이션 컴퓨터(26)는 퍼스널 컴퓨터 또는 랩탑 컴퓨터일 수 있다. 네비게이션 컴퓨터(26)는 디스플레이(28), 중앙 처리 장치(CPU) 및/또는 다른 프로세서, 메모리(미도시) 및 스토리지(미도시)를 갖는다. 네비게이션 컴퓨터(26)는 후술하는 바와 같이 소프트웨어로 로드된다. 소프트웨어는 카메라 유닛(36)으로부터 수신된 신호를 추적 중인 물체의 위치 및 방향을 나타내는 데이터로 변환한다.
네비게이션 시스템(20)은 추적기로서 여기에 칭해지기도 하는 복수의 추적 디바이스(44, 46, 48)를 포함한다. 나타낸 실시예에서, 하나의 추적기(44)는 환자의 대퇴골 F에 단단하게 부착되고, 다른 추적기(46)는 환자의 경골 T에 단단하게 부착된다. 추적기(44, 46)는 뼈의 단면에 단단하게 부착된다. 추적기(44, 46)는 여기에 참조로써 통합되는 미국 특허 제7,725,162호에 나타내어진 방식으로 대퇴골 F에 부착될 수 있다. 추가적인 실시예에서, 추가적인 추적기(미도시)가 슬개골의 위치 및 방향을 추적하기 위해 슬개골에 부착된다. 추가적인 실시예에서, 추적기(44, 46)가 다른 조직 유형 또는 신체의 일부에 장착될 수 있다.
기구 추적기(48)는 수술 기구(22)에 단단하게 부착된다. 기구 추적기(48)는 제조 중에 수술 기구(22)에 통합될 수 있거나, 수술 절차를 위한 준비에서 별개로 수술 기구(22)에 장착될 수 있다. 추적되고 있는 수술 기구(22)의 워킹 엔드는 회전 버(bur), 전기 절제 디바이스 등일 수 있다. 도시된 실시예에서, 수술 기구(22)는 수술 조작자의 엔드 이펙터(end effector)이다. 이러한 구성은 그 개시가 여기에 참조로써 통합되고, 발명의 명칭이 "Surgical Manipulator Capable of Controlling a Surgical Instrument in either a Semi-Autonomous Mode or a Manual, Boundary Constrained Mode"인 미국 가특허출원 제61/679,258호와, 또한 그 개시가 참조로써 여기에 통합되고 발명의 명칭이 "Navigation System for use with a Surgical Manipulator Operable in Manual or Semi-Autonomous Mode"인 미국 특허출원 제13/958,834호에 나타내어져 있다.
추적기(44, 46, 48)는 내부 배터리로 전력을 공급받는 배터리일 수 있거나, 카메라 유닛(36)과 같이 바람직하게는 외부 전력을 수신하는 네비게이션 컴퓨터(26)를 통해 전력을 수신하는 리드를 가질 수 있다.
다른 실시예에서, 수술 기구(22)는 임의의 절단 가이드, 지브(jib) 또는 조작자 또는 로봇과 같은 다른 제약 메커니즘의 도움 없이, 유저의 손에 의해서만 수동으로 위치 결정될 수 있다. 이러한 수술 도구는 여기에 참조로써 통합되고 발명의 명칭이 "Surgical Instrument Including Housing, a Cutting Accessory that Extends from the Housing and Actuators that Establish the Position of the Cutting Accessory Relative to the Housing"인 미국 가특허출원 제61/662,070호와, 또한 여기에 참조로써 통합되고 발명의 명칭이 "Surgical Instrument Including Housing, a Cutting Accessory that Extends from the Housing and Actuators that Establish the Position of the Cutting Accessory Relative to the Housing"인 미국 특허출원 제13/600,888호에 설명되어 있다.
로컬라이저(34)의 광학 센서(40)는 추적기(44, 46, 48)로부터 광학 신호를 수신한다. 나타낸 실시예에서, 추적기(44, 46, 48)는 능동 추적기이다. 본 실시예에서, 각각의 추적기(44, 46, 48)는 광학 센서(40)로 광학 신호를 송신하기 위해 적어도 3개의 능동 마커(50)를 갖는다. 능동 마커(50)는 발광 다이오드 즉 LED(50)일 수 있다. 광학 센서(40)는 바람직하게는 100Hz 이상의 샘플링 레이트를 가지며, 더욱 바람직하게는 300Hz 이상, 가장 바람직하게는 500Hz 이상의 샘플링 레이트를 갖는다. 일부 실시예에서, 광학 센서(40)는 1000Hz의 샘플링 레이트를 갖는다. 샘플링 레이트는, 광학 센서(40)가 순차적으로 점등되는 LED(50)로부터 광학 신호를 수신하는 레이트이다. 일부 실시예에서, LED(50)로부터의 광학 신호는 각각의 추적기(44, 46, 48)에 대해 상이한 레이트로 점등된다.
도 2를 참조하면, 각각의 LED(50)는 네비게이션 컴퓨터(26)로/로부터 데이터를 송신/수신하는 연관 추적기(44, 46, 48)의 하우징(미도시)에 위치된 추적기 컨트롤러(62)에 접속된다. 일 실시예에서, 추적기 컨트롤러(62)는 네비게이션 컴퓨터(26)와의 유선 접속을 통해 대략 수 메가바이트/초로 데이터를 송신한다. 다른 실시예에서, 무선 접속이 사용될 수 있다. 이러한 실시예에서, 네비게이션 컴퓨터(26)는 추적기 컨트롤러(62)로부터 데이터를 수신하기 위해 트랜시버(미도시)를 갖는다.
다른 실시예에서, 추적기(44, 46, 48)는 카메라 유닛(36)으로부터 방출된 광을 반사하는 반사기와 같은 수동 마커(미도시)를 가질 수 있다. 그러면, 반사된 광은 광학 센서(40)에 의해 수신된다. 능동 및 수동 구성은 본 기술분야에 잘 알려져 있다.
또한, 각각의 추적기(44, 46, 48)는 추적기(44, 46, 48)의 각속도를 측정하는 3차원 자이로스코프 센서(60)를 포함한다. 본 기술분야의 당업자에게 잘 알려져 있는 바와 같이, 자이로스코프 센서(60)는 자이로스코프 좌표계의 x-, y- 및 z- 축에 대한 각속도를 나타내는 판독을 출력한다. 이러한 판독은 자이로스코프 좌표계의 x-, y- 및 z- 축의 각각에 대하여 도(degree)/초로 측정을 얻기 위해 제조자에 의해 규정되는 변환 상수로 곱해진다. 이러한 측정은 그 후 라디안/초로 규정되는 각속도 벡터
Figure 112015019595997-pct00001
로 변환될 수 있다.
자이로스코프 센서(60)에 의해 측정된 각속도는 추적기(44, 46, 48)를 추적하는 네비게이션 시스템(20)에 대한 추가적인 비광학 기반 운동학 데이터를 제공한다. 자이로스코프 센서(60)는 추적기(44, 46, 48)의 각각의 좌표계의 축을 따라 배향될 수 있다. 다른 실시예에서, 각각의 자이로스코프 좌표계는 그 추적기 좌표계로 변환되어, 자이로스코프 데이터는 추적기(44, 46, 48)의 좌표계의 x-, y- 및 z- 축에 대한 각속도를 반영한다.
각각의 자이로스코프 센서(60)는 네비게이션 컴퓨터(26)로/로부터 데이터를 송신/수신하는 연관 추적기의 하우징 내에 위치되는 추적기 컨트롤러(62)와 통신한다. 네비게이션 컴퓨터(26)는 자이로스코프 센서(60)로부터 데이터를 수신하기 위해 하나 이상의 트랜시버(미도시)를 갖는다. 데이터는 유선 또는 무선 접속 중 어느 하나를 통해 수신될 수 있다.
자이로스코프 센서(60)는 바람직하게는 100Hz 이상의 샘플링 레이트를 가지며, 더욱 바람직하게는 300Hz 이상, 가장 바람직하게는 500Hz 이상의 샘플링 레이트를 갖는다. 일부 실시예에서, 자이로스코프 센서(60)는 1000Hz의 샘플링 레이트를 갖는다. 자이로스코프 센서(60)의 샘플링 레이트는 신호가 자이로스코프 센서(60)로부터 송신되어 각속도 데이터로 변환되는 레이트이다.
자이로스코프 센서(60) 및 광학 센서(40)의 샘플링 레이트가 확립 및 시간 설정되어, 위치의 각각의 측정에 대하여 각속도의 대응 비광학 측정이 존재한다.
또한, 각각의 추적기(44, 46, 48)는 가속도계 좌표계의 x-, y- 및 z- 축의 각각을 따라 가속도를 측정하는 3-축 가속도계(70)를 포함한다. 가속도계(70)는 추적기(44, 46, 48)를 추적하는 네비게이션 시스템(20)에 대해 추가적인 비광학 기반 데이터를 제공한다.
각각의 가속도계(70)는 네비게이션 컴퓨터(26)로/로부터 데이터를 송신/수신하는 연관 추적기의 하우징에 위치된 추적기 컨트롤러(62)와 통신한다. 네비게이션 컴퓨터의 하나 이상의 트랜시버(미도시)가 가속도계(70)로부터 데이터를 수신한다.
가속도계(70)는 추적기(44, 46, 48)의 각각의 좌표계의 축을 따라 배향될 수 있다. 다른 실시예에서, 이러한 가속도계 좌표계는 그 추적기 좌표계로 변환되어, 가속도계 데이터는 추적기(44, 46, 48)의 좌표계의 x-, y- 및 z- 축에 대하여 가속도를 반영한다.
네비게이션 컴퓨터(26)는 네비게이션 프로세서(52)를 포함한다. 카메라 유닛(36)은 추적기(44, 46, 48)의 LED(50)로부터 광학 신호를 수신하고, 로컬라이저(34)에 대해 추적기(44, 46, 48)의 LED(50)의 위치에 대한 신호를 프로세서(52)에 출력한다. 자이로스코프 센서(60)는 자이로스코프 센서(60)에 의해 측정된 3차원 각속도에 대해 비광학 신호를 프로세서(52)에 송신한다. 수신된 광학 및 비광학 신호에 기초하여, 네비게이션 프로세서(52)는 로컬라이저(34)에 대하여 추적기(44, 46, 48)의 상대적 위치 및 방향을 나타내는 데이터를 생성한다.
네비게이션 프로세서(52)는 네비게이션 컴퓨터(26)의 동작을 제어하기 위하여 하나 이상의 프로세서를 포함할 수 있다는 것이 이해되어야 한다. 프로세서는 임의의 유형의 마이크로프로세서 또는 멀티-프로세서 시스템일 수 있다. 프로세서라는 용어는 본 발명의 범위를 단일 프로세서로 한정하려는 것은 아니다.
수술 절차의 시작 전에, 추가적인 데이터가 네비게이션 프로세서(52)로 로드된다. 추적기(44, 46, 48)의 위치 및 방향과 사전에 로드된 데이터에 기초하여, 네비게이션 프로세서(52)는 워킹 엔드가 적용되어야 하는 조직에 대한 수술 기구(22)의 방향 및 수술 기구(22)의 워킹 엔드의 위치를 결정한다. 일부 실시예에서, 네비게이션 프로세서(52)는 이러한 데이터를 조작자 컨트롤러(54)로 전달한다. 그러면 조작자 컨트롤러(54)는 그 개시가 여기에 참조로써 통합되고 발명의 명칭이 "Surgical Manipulator Capable of Controlling a Surgical Instrument in either a Semi-Autonomous Mode or a Manual, Boundary Constrained Mode"인 미국 가특허출원 제61/679,258호와, 또한 그 개시가 여기에 참조로써 통합되고 발명의 명칭이 "Navigation System for use with a Surgical Manipulator Operable in Manual or Semi-Autonomous Mode"인 미국 특허출원 제13/958,834호에 설명된 로봇식 조작자(56)를 제어하는 데이터를 사용할 수 있다.
또한, 네비게이션 프로세서(52)는 수술 사이트에 대한 수술 기구 워킹 엔드의 상대적 위치를 나타내는 이미지 신호를 생성한다. 이러한 이미지 신호가 디스플레이(28, 29)에 인가된다. 이러한 신호에 기초하여 디스플레이(28, 29)는 수술 사이트에 대한 수술 기구 워킹 엔드의 상대적 위치를 의사 및 스태프들이 볼 수 있게 하는 이미지를 생성한다. 상술한 바와 같이, 디스플레이(28, 29)는 커맨드의 입력을 허용하는 터치 스크린 또는 다른 입력/출력 디바이스를 포함할 수 있다.
Ⅱ. 좌표계 및 변환
도 3을 참조하면, 물체의 추적은 로컬라이저 좌표계 LCLZ를 참조하여 일반적으로 수행된다. 로컬라이저 좌표계는 원점 및 방향(x-, y- 및 z- 축의 세트)을 갖는다. 절차 중 하나의 목표는 로컬라이저 좌표계 LCLZ를 안정하게 유지하는 것이다. 추가로 후술하는 바와 같이, 카메라 유닛(36)이 수술자에 의해 부주의로 부딪힐 때가 발생할 수 있으므로, 카메라 유닛(36)에 장착된 가속도계는 로컬라이저 좌표계 LCLZ의 돌발적이거나 예측하지 않은 이동을 추적하는 데 사용될 수 있다.
추적되고 있는 각각의 추적기(44, 46, 48) 및 물체는 또한 로컬라이저 좌표계 LCLZ와 별개의 그 자신의 좌표계를 갖는다. 그 자신의 좌표계를 갖는 네비게이션 시스템(20)의 컴포넌트는 뼈 추적기(44, 46) 및 기구 추적기(48)이다. 이러한 좌표계는 각각 뼈 추적기 좌표계 BTRK1, BTRK2 및 기구 추적기 좌표계 TLTR로 나타내어진다.
네비게이션 시스템(20)은 뼈에 단단하게 부착된 뼈 추적기(44, 46)의 위치를 감시함으로써 환자의 대퇴골 F 및 경골 T의 위치를 감시한다. 대퇴골 좌표계는 FBONE이고 경골 좌표계는 TBONE이며, 이들은 뼈 추적기(44, 46)가 단단하게 부착된 뼈의 좌표계이다.
절차의 시작 전에, 대퇴골 F 및 경골 T의 (또는 다른 실시예에서는 다른 조직의) 수술 전 이미지가 생성된다. 이러한 이미지는 환자의 신체의 MRI 스캔, 방사선 스캔 또는 CT(computed tomography) 스캔에 기초할 수 있다. 이러한 이미지는 본 기술분야의 잘 알려진 방법을 이용하여 대퇴골 좌표계 FBONE 및 경골 좌표계 TBONE에 매핑된다. 일 실시예에서, 여기에 참조로써 통합되는, Malackowski 등의 미국 특허 제7,725,162호에 개시된 것과 같은, 그 자신의 추적기 PT(도 2 참조)를 갖는 포인터 기구 P가 대퇴골 좌표계 FBONE 및 경골 좌표계 TBONE을 수술전 이미지에 매핑하는 데 사용될 수 있다. 이러한 이미지는 대퇴골 좌표계 FBONE 및 경골 좌표계 TBONE에 고정된다.
절차의 초기 국면 중에, 뼈 추적기(44, 46)는 환자의 뼈에 단단하게 부착된다. 좌표계 FBONE 및 TBONE의 포즈(위치 및 방향)는 각각 좌표계 BTRK1 및 BTRK2에 매핑된다. 뼈와 그 뼈 추적기(44, 46) 사이의 고정된 관계가 주어지면, 좌표계 FBONE 및 TBONE의 포즈는 절차 전체에서 각각 좌표계 BTRK1 및 BTRK2에 대해 고정된 채로 있다. 포즈-설명 데이터가 조작자 컨트롤러(54) 및 네비게이션 프로세서(52) 양쪽과 일체인 메모리에 저장된다.
수술 기구(22)의 워킹 엔드(또한 에너지 어플리케이터 원위부(distal end)라고도 함)는 그 자신의 좌표계 EAPP를 갖는다. 좌표계 EAPP의 원점은 예를 들어, 수술 절단 버의 중심을 나타낼 수 있다. 좌표계 EAPP의 포즈는 절차가 시작하기 전에 기구 추적기 좌표 TLTR의 포즈에 고정된다. 따라서, 서로에 대해 이러한 좌표계 EAPP, TLTR의 포즈가 결정된다. 포즈-설명 데이터는 조작자 컨트롤러(54)와 네비게이션 프로세서(52) 양쪽과 일체인 메모리에 저장된다.
Ⅲ. 소프트웨어
도 2를 참조하면, 로컬화 엔진(100)은 네비게이션 시스템(20)의 일부로 고려될 수 있는 소프트웨어 모듈이다. 로컬화 엔진(100)의 컴포넌트는 네비게이션 프로세서(52) 상에서 실행된다. 본 발명의 일부 버전에서, 로컬화 엔진(100)은 조작자 컨트롤러(54) 상에서 실행될 수 있다.
로컬화 엔진(100)은 입력으로서 광학 기반 신호를 카메라 컨트롤러(42)로부터 수신하고 비광학 기반 신호를 추적기 컨트롤러(62)로부터 수신한다. 이러한 신호에 기초하여, 로컬화 엔진(100)은 로컬라이저 좌표계 LCLZ에서 뼈 추적기 좌표계 BTRK1 및 BTRK2의 포즈(위치 및 방향)를 결정한다. 기구 추적기(48)에 대해 수신된 동일 신호에 기초하여, 로컬화 엔진(100)은 로컬라이저 좌표계 LCLZ에서 기구 추적기 좌표계 TLTR의 포즈를 결정한다.
로컬화 엔진(100)은 추적기(44, 46, 48)의 포즈를 나타내는 신호를 좌표 변환기(102)로 전달한다. 좌표 변환기(102)는 네비게이션 프로세서(52) 상에서 실행되는 네비게이션 시스템 소프트웨어 모듈이다. 좌표 변환기(102)는 환자의 수술전 이미지와 환자 추적기(44, 46) 사이의 관계를 규정하는 데이터를 참조한다. 또한, 좌표 변환기(102)는 기구 추적기(48)에 대한 수술 기구의 워킹 엔드의 포즈를 나타내는 데이터를 저장한다.
절차 중에, 좌표 변환기(102)는 로컬라이저(34)에 대한 추적기(44, 46, 48)의 상대적 포즈를 나타내는 데이터를 수신한다. 이러한 데이터 및 사전에 로드된 데이터에 기초하여, 좌표 변환기(102)는 로컬라이저 좌표계 LCLZ에 대한 좌표계 EAPP 및 뼈 좌표계 FBONE 및 TBONE 양쪽의 상대적 위치 및 방향을 나타내는 데이터를 생성한다.
그 결과, 좌표 변환기(102)는 기구 워킹 엔드가 적용되는 조직(예를 들어, 뼈)에 대한 수술 기구(22)의 워킹 엔드의 위치 및 방향을 나타내는 데이터를 생성한다. 이러한 데이터를 나타내는 이미지 신호가 디스플레이(28, 29)로 전달되어, 의사 및 스태프가 이 정보를 볼 수 있게 한다. 특정 실시예에서, 이러한 데이터를 나타내는 다른 신호가 조작자(56) 및 수술 기구(22)의 대응하는 이동을 제어하기 위해 조작자 컨트롤러(54)로 전달될 수 있다.
로컬라이저 좌표계 LCLZ에서 각각의 추적기 좌표계 BTRK1, BTRK2, TLTR의 포즈를 결정하는 스텝은 동일하므로, 하나만 상세하게 설명할 것이다. 도 4에 도시된 스텝은 단지 하나의 능동인 추적기인 추적기(44)에 기초한다. 후술하는 설명에서, 추적기(44)의 LED는 제1(50a), 제2(50b) 및 제3(50c) LED를 식별하는 부호 50a, 50b, 50c에 의해 나타내어질 것이다.
도 4에 개진되는 스텝은 추적기(44)의 LED(50a, 50b, 50c)의 위치를 결정하기 위한 광학 기반 센서 데이터 및 비광학 기반 센서 데이터의 사용을 나타낸다. 이러한 위치로부터, 네비게이션 프로세서(52)는 추적기(44)의 위치 및 방향, 따라서 이것이 부착되어 있는 대퇴골 F의 위치 및 방향을 결정할 수 있다. 광학 센서(40)에 의해 수신된 신호로부터 도출된 광학 기반 센서 데이터는 LED(50a, 50b, 50c)와 광학 센서(40) 사이의 시선에 의존하는 시선 기반 데이터를 제공한다. 하지만, 비광학 기반 센서 데이터를 생성하기 위한 비광학 기반 신호를 제공하는 자이로스코프 센서(60)는 시선에 의존하지 않으므로, (한번에 한개만의 LED가 측정되므로) LED(50a, 50b, 50c) 중 2개가 측정되지 않을 때 또는 LED(50a, 50b, 50c) 중 하나 이상이 절차 중에 광학 센서(40)에 보이지 않을 때, LED(50a, 50b, 50c)의 위치를 더 양호하게 근사화하기 위해 네비게이션 시스템(20)에 통합될 수 있다.
제1 초기화 스텝 200에서, 시스템(20)은 초기 위치 데이터를 확립하기 위해 로컬라이저 좌표계 LCLZ에서 추적기(44)에 대한 LED(50a, 50b, 50c)의 위치를 측정한다. 이러한 측정은 광학 센서(40)에 광학 신호를 송신하는 순차적으로 점등하는 LED(50a, 50b, 50c)에 의해 이루어진다. 광학 신호가 광학 센서(40)에 의해 수신되면, 대응 신호가 광학 센서(40)에 의해 생성되고 카메라 컨트롤러(42)로 송신된다. LED(50a, 50b, 50c)의 점등 간 주파수는 100Hz 이상이며, 바람직하게는 300Hz 이상, 더욱 바람직하게는 500Hz 이상이다. 일부 경우에, 점등 간 주파수는 1000Hz이거나 점등 간 1 밀리초이다.
일부 실시예에서, 단지 하나의 LED가 한번에 광학 센서(40)에 의해 판독될 수 있다. 카메라 컨트롤러(42)는 (카메라 유닛(36) 및 추적기(44) 상의) 하나 이상의 적외선 또는 RF 트랜시버를 통해, 여기에 참조로써 통합되는 Malackowski 등의 미국 특허 제7,725,162호에 설명된 바와 같이, LED(50a, 50b, 50c)의 점등을 제어할 수 있다. 대안적으로, 추적기(44)가 카메라 컨트롤러(42)로부터의 명령 없이 순차적으로 일단 활성화된 그 LED(50a, 50b, 50c)를 점등하는 (추적기(44) 상의 스위치에 의하는 것과 같이) 로컬로 활성화될 수 있다.
광학 센서(40)로부터의 입력에 기초하여, 카메라 컨트롤러(42)는 로컬라이저 좌표계 LCLZ에서 대응하는 3개의 LED(50a, 50b, 50c)의 각각의 위치를 결정하기 위하여 그 후 로컬화 엔진(100)에 전송되는 미가공 위치 신호를 생성한다.
초기화 스텝 200 중에, 초기 위치 데이터를 확립하기 위해, 추적기(44)의 이동은 미리 정해진 임계치보다 작아야 한다. 미리 정해진 임계치의 값은 네비게이션 컴퓨터(26)에 저장된다. 스텝 200에서 확립된 초기 위치 데이터는 이로부터 프로세스의 나머지 스텝이 기초되는 초기 시간 t0에서 3개의 LED(50a, 50b, 50c)의 위치의 정적인 스냅샷을 필수적으로 제공한다. 초기화 중에, LED(50a, 50b, 50c)의 속도가 사이클(즉, 3개의 LED 측정의 각 세트) 간에 로컬화 엔진(100)에 의해 계산되고, 속도가 충분히 낮으면, 작은 이동이 발생했다는 것을 나타내는 미리 정해진 임계치보다 작으면, 초기 위치 데이터 또는 정적인 스냅샷이 확립된다. 일부 경우에, 미리 정해진 임계치(또한 정적인 속도 제한이라 칭함)는 임의의 축을 따라 200mm/s 이하, 바람직하게는 100mm/s 이하, 더욱 바람직하게는 10mm/s 이하이다. 미리 정해진 임계치가 100mm/s인 경우, 계산된 속도는 정적인 스냅샷을 확립하기 위해 100mm/s보다 작아야 한다.
도 4 및 4a를 참조하면, 정적인 스냅샷이 얻어지면, 측정된 LED(50a, 50b, 50c)의 위치는 스텝 202에서 추적기(44)의 모델과 비교된다. 모델은 네비게이션 컴퓨터(26)에 저장된 데이터이다. 모델 데이터는 추적기 좌표계 BTRK1에서 추적기(44)에 대한 LED의 위치를 나타낸다. 시스템(20)은 각각의 추적기의 좌표계에 각 추적기(44, 46, 48)의 LED(50)의 수 및 위치를 저장한다. 추적기(44, 46, 48)에 대해, 그 좌표계의 원점은 추적기(44)의 모든 LED 위치의 중심에 설정된다.
로컬화 엔진(100)은 로컬라이저 좌표계 LCLZ에서의 측정된 LED(50a, 50b, 50c)를 저장된 모델에서의 LED로 매칭하기 위하여 강체 매칭 알고리즘 또는 포인트 매칭 알고리즘을 이용한다. 최적의 맞춤이 결정되면, 측정된 LED(50a, 50b, 50c)가 저장된 미리 규정된 모델의 공차 내에 맞는지를 결정하기 위해 로컬화 엔진(100)은 그 맞춤의 편차를 평가한다. 공차는 대응 LED 사이의 거리에 기초할 수 있어, 맞춤이 너무 큰 거리로 귀결되면, 초기화 스텝은 반복되어야 한다. 일부 실시예에서, LED의 위치는 모델로부터 2.0mm보다 많이 벗어나서는 안되며, 바람직하게는 0.5mm 이하, 더욱 바람직하게는 0.1mm 이하로 벗어나야 한다.
그 맞춤이 미리 규정된 공차 내에 있다면, 스텝 204에서, 변환 행렬이 모델에서 임의의 다른 미측정된 LED를 뼈 추적기 좌표계 BTRK1로부터 로컬라이저 좌표계 LCLZ로 변환하기 위해 생성된다. 이러한 스텝은, 추가로 후술하는 바와 같이, 3개 초과의 LED가 사용되거나 가상 LED가 사용되는 경우에 이용된다. 일부 실시예에서, 추적기(44, 46, 48)는 4개 이상의 LED를 가질 수 있다. 로컬라이저 좌표계 LCLZ에서 모든 위치가 확립되면, LED 클라우드가 생성된다. LED 클라우드는 로컬라이저 좌표계 LCLZ에서의 모든 LED(50a, 50b, 50c)의 x-, y- 및 z- 축에 기초한 로컬라이저 좌표계 LCLZ에서의 추적기(44)에 대한 모든 LED(50a, 50b, 50c)의 구성이다.
LED 클라우드가 초기에 확립되면, 네비게이션 시스템(20)은 수술 절차 중에 추적기(44)를 추적하는 것으로 진행할 수 있다. 상술한 바와 같이, 이것은 시퀀스에서 다음 LED를 점등하는 것을 포함한다. 예를 들어, LED(50a)가 지금 점등된다. 따라서, LED(50a)는 광학 신호를 광학 센서(40)에 송신한다. 광학 신호가 광학 센서(40)에 의해 수신되면, 대응 신호가 광학 센서(40)에 의해 생성되고 카메라 컨트롤러(42)에 송신된다.
광학 센서(40)로부터의 입력에 기초하여, 카메라 컨트롤러(42)는 로컬라이저 좌표계 LCLZ의 x-, y- 및 z- 축에 대하여 시간 t1에서 LED(50a)의 새로운 위치를 결정하기 위해 로컬화 엔진(100)으로 그 후에 전송되는 미가공 위치 신호를 생성한다. 이것이 새로운 LED 측정으로서 스텝 206에 나타내어진다.
t0, t1...tn과 같은 시간의 표시는 상이한 시간 또는 시간의 상이한 범위 또는 시간 구간을 나타내기 위해 예시적인 목적으로 사용되는 것이며, 본 발명을 이러한 특정된 또는 확정적인 시간으로 한정하지 않는다.
LED(50a)의 새로운 위치가 결정되면, LED(50a)의 선형 속도 벡터가 스텝 208에서 로컬화 엔진(100)에 의해 계산될 수 있다.
추적기(44)는 강체로서 취급된다. 따라서, LED(50a)의 선형 속도 벡터는 그 선형 위치의 변화의 시간 레이트와 동등한 벡터량이다. 로컬라이저 좌표계 LCLZ에서 각 LED의 속도, 심지어 가속도는 로컬라이저 좌표계 LCLZ에서 그 LED의 이전에 그리고 현재 측정된 위치 및 시간으로부터 계산될 수 있다. LED의 이전에 그리고 현재 측정된 위치 및 시간은 그 LED의 위치 이력을 규정한다. LED(50a)의 속도 계산은 이하의 가장 단순한 형식을 취할 수 있다:
Figure 112015019595997-pct00002
여기에서,
Figure 112015019595997-pct00003
이고 시간
Figure 112015019595997-pct00004
에서 LED(50a)의 이전에 측정된 위치이며;
Figure 112015019595997-pct00005
이고 시간
Figure 112015019595997-pct00006
에서 LED(50a)의 현재 측정된 위치이다. 또한, 본 기술분야에서 당업자에게 잘 알려진 바와 같이, 그 LED의 LED 위치 이력을 맞추는 데이터에 의해 각 LED의 속도 및/또는 가속도를 얻을 수 있다.
시간 t1에서, 스텝 210에서, 자이로스코프 센서(60)는 또한 추적기(44)의 각속도를 측정하고 있다. 자이로스코프 센서(60)는 이러한 각속도에 관련된 추적기 컨트롤러(62)로 신호를 송신한다.
로컬화 엔진(100)이 이러한 신호로부터 각속도 벡터
Figure 112015019595997-pct00007
를 계산할 수 있도록, 추적기 컨트롤러(62)는 그 후 대응 신호를 로컬화 엔진(100)으로 송신한다. 스텝 210에서, 자이로스코프 좌표계는 또한 뼈 추적기 좌표계 BTRK1로 변환되어, 로컬화 엔진(100)에 의해 계산된 각속도 벡터
Figure 112015019595997-pct00008
가 뼈 추적기 좌표계 BTRK1에서 표현된다.
스텝 212에서, 상대적 속도 벡터
Figure 112015019595997-pct00009
이 위치 벡터
Figure 112015019595997-pct00010
에 대하여 뼈 추적기 좌표계 BTRK1의 원점에 대하여 계산된다. 이러한 위치 벡터
Figure 112015019595997-pct00011
는 또한 이하의 계산을 위해 로컬화 엔진(100)에 의한 액세스를 위해 네비게이션 컴퓨터(26)의 메모리에 저장된다. 이러한 계산은 자이로스코프 신호로부터 도출된 각속도 벡터
Figure 112015019595997-pct00012
와 LED(50a)로부터 원점까지의 위치 벡터의 외적을 계산함으로써 뼈 추적기 좌표계 BTRK1의 원점의 상대 속도
Figure 112015019595997-pct00013
을 결정한다.
Figure 112015019595997-pct00014
로컬화 엔진(100)은 그 후에 나머지 미측정 LED(50b, 50c)(LED가 점등되지 않아서 그 위치가 측정되지 않고 있으므로 미측정됨)에 대한 상대적 속도 벡터
Figure 112015019595997-pct00015
을 계산한다. 이러한 속도 벡터는 뼈 추적기 좌표계 BTRK1의 원점에 대하여 계산될 수 있다.
시간 t1에서 각각의 미측정된 LED(50b, 50c)에 대한 상대적 속도
Figure 112015019595997-pct00016
을 결정하기 위해 로컬화 엔진(100)에 의해 수행되는 계산은 시간 t1에서 각속도 벡터
Figure 112015019595997-pct00017
와, 뼈 추적기 좌표계 BTRK1의 원점으로부터 각각의 미측정 LED(50b, 50c)까지 취해지는 위치 벡터
Figure 112015019595997-pct00018
Figure 112015019595997-pct00019
의 외적에 기초한다. 이러한 위치 벡터
Figure 112015019595997-pct00020
Figure 112015019595997-pct00021
는 이하의 계산을 위해 로컬화 엔진(100)에 의한 액세스를 위해 네비게이션 컴퓨터(26)의 메모리에 저장된다:
Figure 112015019595997-pct00022
또한, 스텝 212에서, 뼈 추적기 좌표계 BTRK1에서 계산되는 이러한 상대적 속도는 스텝 202에서 결정된 변환 행렬을 사용하여 로컬라이저 좌표계 LCLZ로 전송된다. 로컬라이저 좌표계 LCLZ에서의 상대적 속도는 스텝 214에서의 계산에서 사용된다.
스텝 214에서, 시간 t1에서 로컬라이저 좌표계 LCLZ에서의 뼈 추적기 좌표계 BTRK1의 원점의 속도 벡터
Figure 112015019595997-pct00023
는 우선 시간 t1에서 LED(50a)의 측정된 속도 벡터
Figure 112015019595997-pct00024
에 기초하여 로컬화 엔진(100)에 의해 계산된다. 속도 벡터
Figure 112015019595997-pct00025
은 시간 t1에서 LED(50a)의 속도 벡터
Figure 112015019595997-pct00026
와 원점에 대해 LED(50a)의 위치 벡터에 대해 표현되는 시간 t1에서의 상대적 벡터 속도
Figure 112015019595997-pct00027
를 더함으로써 계산된다. 따라서, 시간 t1에서 원점의 속도 벡터는 이하와 같이 계산된다:
Figure 112015019595997-pct00028
시간 t1에서 로컬라이저 좌표계 LCLZ에서 나머지 미측정된 LED의 속도 벡터는 시간 t1에서 로컬라이저 좌표계 LCLZ에서 뼈 추적기 좌표계 BTRK1의 원점의 속도 벡터
Figure 112015019595997-pct00029
과 뼈 추적기 좌표계 BTRK1의 원점으로 그 위치 벡터에 대해 표현되는 시간 t1에서의 그 각각의 상대적 속도 벡터에 기초하여 이하 로컬화 엔진(100)에 의해 계산될 수 있다. 시간 t1에서의 이러한 속도 벡터는 이하와 같이 계산된다:
Figure 112015019595997-pct00030
스텝 216에서, 로컬화 엔진(100)은 LED(50b, 50c)의 계산된 속도 벡터와 시간 변화에 기초하여 시간 t0으로부터 시간 t1까지 각각의 미측정 LED(50b, 50c)의 이동, 즉 (데카르트 좌표에서) 위치 변화
Figure 112015019595997-pct00031
를 계산한다. 일부 실시예에서, 각 LED 측정에 대한 시간 변화
Figure 112015019595997-pct00032
는 2 밀리초 이하이며, 일부 일시예에서는 1 밀리초 이하이다.
Figure 112015019595997-pct00033
그 후, 위치(x, y, z)의 이러한 계산된 변화는 로컬라이저 좌표계 LCLZ에서 각각의 LED(50b, 50c)의 이전에 결정된 위치에 더해질 수 있다. 따라서, 스텝 218에서, 위치 변화는 정적인 스냅샷 중에 결정되었던, 시간 t0에서의 LED(50b, 50c)의 이전의 위치에 더해질 수 있다. 이는 이하와 같이 표현된다:
Figure 112015019595997-pct00034
스텝 220에서, 시간 t1에서 각각의 LED(50b, 50c)에 대한 이러한 계산된 위치는 시간 t1에서 LED(50a)의 결정된 위치와 결합된다. 그 후, 새롭게 결정된 LED(50a, 50b, 50c)의 위치는 포인트 매칭 알고리즘 또는 강체 매칭 알고리즘을 사용하여 최적의 맞춤을 얻기 위해 추적기(44)의 모델로 매칭된다. 이러한 최적의 맞춤 계산의 결과는, 시스템(20)의 규정된 공차 내라면, 뼈 추적기 좌표계 BTRK1을 로컬라이저 좌표계 LCLZ로 링크하기 위해 네비게이션 프로세서(52)에 의해 새로운 변환 행렬이 생성되는 것이다.
새로운 변환 행렬로 미측정 LED(50b, 50c)의 새롭게 계산된 위치가 스텝 222에서 모델로 조정되어 조정된 위치를 제공한다. LED(50a)의 측정된 위치는 또한 매칭 알고리즘으로 인해 조정될 수 있어, 또한 재계산된다. 이러한 조정은 LED 클라우드에 대한 업데이트로 고려된다. 일부 실시예에서, LED(50a)의 측정된 위치는 매칭 스텝 중에 LED(50a)의 모델의 위치로 고정된다.
최적의 맞춤 변환이 완료되면, 측정된 (그리고 아마도 조정된) LED(50a)의 위치와 로컬라이저 좌표계 LCLZ에서 LED(50b, 50c)의 계산된 (그리고 조정된) 위치는 좌표 변환기(102)가 대퇴골 좌표계 FBONE, 뼈 추적기 좌표계 BTRK1, 및 로컬라이저 좌표계 LCLZ 간 이전에 설명된 관계에 기초하여 대퇴골 F의 새로운 위치 및 방향을 결정할 수 있게 한다.
그 후, 다음 시간 t2에서 스텝 206 내지 222가 반복되며, LED(50b)의 로컬라이저 좌표계 LCLZ에서의 측정으로 시작하고, LED(50a, 50c)는 미측정 LED이다. 각 시간 t1, t2...tn에서 이러한 루프의 결과로서, 각각의 LED(50a, 50b, 50c)의 위치가 광학 센서(40) 및 자이로스코프 센서(60)에 의한 측정에 기초하여 매우 정확하게 근사화되고 있는 계산된 위치로 계산되거나 측정된다(각 시간에 하나의 LED가 점등됨). LED(50)의 새로운 위치를 결정하기 위한 스텝 206 내지 222의 이러한 루프는 적어도 100Hz, 더욱 바람직하게는 적어도 300Hz, 가장 바람직하게는 적어도 500Hz의 주파수에서 로컬화 엔진(100)에 의해 수행될 수 있다.
도 5를 참조하면, LED 클라우드는 또한 모델에 대해 식별되는 미리 결정된 포인트이지만 추적기(44)에 대한 물리적 LED에 실제로 대응하지 않는 가상 LED를 포함할 수 있다. 이러한 포인트의 위치는 또한 시간 t1, t2...tn에서 계산될 수 있다. 이러한 가상 LED는 도 4를 참조하여 미측정 LED와 동일한 방식으로 계산될 수 있다. 유일한 차이점은 가상 LED는 임의의 광원에 대응하지 않고 속성상 단지 가상적이기 때문에, 점등되지 않고 과 측정의 시퀀스에 포함되지 않는다는 것이다. 스텝 300-322는 실제 및 가상 LED를 사용하여 추적기(44, 46, 48)를 추적하기 위해 사용되는 스텝을 나타낸다. 스텝 300-322는 상술한 동일 식을 사용하여 미측정 LED와 같이 취급되는 가상 LED의 추가를 제외하고는 스텝 200-222에 일반적으로 대응한다.
예를 들어, LED(50a, 50b, 50c)에 추가하여 가상 LED를 사용하는 하나의 목적은 상술한 속도 계산에서 오차의 효과를 감소시키는 것이다. 이러한 오차는 LED(50a, 50b, 50c)의 계산된 위치에 작은 영향을 가질 수 있지만, 관심 있는 포인트가 LED(50a, 50b, 50c)로부터 더욱 떨어져 위치되면 증폭될 수 있다. 예를 들어, 추적기(44)로 대퇴골 F를 추적할 때, 추적기(44)에 통합된 LED(50a, 50b, 50c)는 대략 0.2 밀리미터의 그 계산된 위치의 약간의 오차를 경험할 수 있다. 하지만, LED(50a, 50b, 50c)로부터 10 센티미터 이상 떨어져 위치될 수 있는 대퇴골 F를 고려한다. LED(50a, 50b, 50c)에서의 0.2 밀리미터의 약간의 오차는 대퇴골 F의 표면에서 0.4 내지 2 밀리미터의 오차로 귀결될 수 있다. 대퇴골이 LED(50a, 50b, 50c)로부터 더 떨어져 위치될수록, 오차가 더욱 증가한다. 도 5의 스텝들에서의 가상 LED의 사용은 후술하는 이러한 오차의 잠재적인 증폭을 감소시킬 수 있다.
도 5a를 참조하면, 하나의 가상 LED(50d)가 대퇴골 F의 표면 상에 위치될 수 있다. 다른 가상 LED(50e, 50f, 50g, 50h, 50i, 50j, 50k)는 x-, y- 및 z- 축의 각각을 따라 그리고 이러한 축들을 따라 원점의 양측 상에서 뼈 추적기 좌표계 BTRK1에서 랜덤한 위치에 위치될 수 있어 6개의 가상 LED를 만든다. 이러한 가상 LED는 도 5a에 도시되고 스텝 302 및 320에서 사용되는 추적기(44)의 모델의 일부로서 포함된다. 일부 실시예에서, 가상 LED(50e-50k)만이 사용된다. 다른 실시예에서, 가상 LED는 x-, y- 및 z- 축의 각각을 따르지만, 뼈 추적기 좌표계 BTRK1의 원점으로부터 상이한 거리에 있는 위치에 위치될 수 있다. 더욱 추가적인 실시예에서, 가상 LED의 일부 또는 전부는 축 x-, y- 및 z- 에 떨어져 위치될 수 있다.
이하 모델에서 실제 LED(50a, 50b, 50c)와 가상 LED(50d-50k)가 있다. 각 시간 t1, t2...tn에서, 이러한 확장된 모델은 스텝 320에서 실제 LED(50a, 50b, 50c)의 측정된/계산된 위치와 가상 LED(50d-50k)의 계산된 위치와 매칭되어, 뼈 추적기 좌표계 BTRK1과 로컬라이저 좌표계 LCLZ를 연결하는 변환 행렬을 얻는다. 이제, 실제 LED(50a, 50b, 50c)보다 넓은 위치에 위치되는, 모델에 포함되는 가상 LED(50d-50k)로, 회전 행렬에서의 오차가 감소될 수 있다. 본질적으로, 강체 매칭 알고리즘 또는 포인트 매칭 알고리즘은 매칭을 위해 사용되는 추가적인 포인트를 갖고, 이러한 추가적인 포인트의 일부는 실제 LED(50a, 50b, 50c)를 규정하는 포인트로부터 외부로 방사상으로 위치되므로, 매치를 회전적으로 안정화시킨다.
도 5의 프로세스의 다른 변형에서, 가상 LED(50e-50k)의 위치는 추적기(44)의 이동에 의존하여 사용 중에 동적으로 변할 수 있다. 시간 t1에서 미측정 실제 LED(50a, 50b, 50c) 및 가상 LED(50e-50k)의 계산된 위치는 추적기(44)가 더 천천히 이동할수록 더욱 정확하다. 따라서, 뼈 추적기 좌표계 BTRK1의 원점에 대하여 x-, y- 및 z- 축을 따른 가상 LED(50e-50k)의 위치가 추적기(44)의 속도에 기초하여 조정될 수 있다. 가상 LED(50e-50k)의 위치가 각각 (s,0,0),(-s,0,0),(0,s,0),(0,-s,0),(0,0,s),(0,0,-s)로 표기되면, 추적기(44)가 천천히 이동할 때 s가 증가할 것이고, 추적기(44)가 더 빠르게 이동할 때 s는 더 작은 값으로 감소할 것이다. 이것은 s에 대해 경험식에 의해 다루어질 수 있거나, s는 속도 및 계산된 위치에서의 오차의 추정에 기초하여 조정될 수 있다.
LED(50)(실제 또는 가상)의 새로운 위치를 결정하는 것은 적어도 100Hz, 더욱 바람직하게는 적어도 300Hz, 가장 바람직하게는 적어도 500Hz의 주파수에서 수행될 수 있다.
LED(50)의 광 측정이 시선과의 간섭으로 방해되는 상황에서 가속도계(70)로부터의 데이터가 사용될 수 있다. 측정되는 LED가 차단되는 경우에, 로컬화 엔진(100)은 위치를 추정하기 위해 원점의 일정 속도를 상정한다. 하지만, 이 상황에서 일정한 속도의 상정은 정확하지 않을 수 있고 오차로 귀결될 수 있다. 가속도계(70)는 이 시간 구간에서의 일정 속도 상정이 정확한지를 본질적으로 감시한다. 도 6 및 7에 나타내어진 스텝은 이러한 상정이 어떻게 확인되는지를 나타낸다.
예로서 추적기(44)를 사용하는 것에 계속하여, 도 6의 스텝 400-422는 일반적으로 도 5로부터의 스텝 300-322에 대응한다. 하지만, 스텝 424에서, 시스템(20)은 측정의 최후 사이클에서 3개 미만의 LED가 측정되었는지를 결정하며, 이는 그 사이클의 하나 이상의 LED가 측정될 수 없었다는 것을 의미한다. 이것은 시선 문제 등에 의해 야기될 수 있다. 추적기(44)에 대한 사이클은 최후의 3번의 시도된 측정이다. 최후의 3번의 측정 중에, 각각의 LED(50a, 50b, 50c)를 볼 수 있었고, 측정될 수 있었다면, 시스템(20)은 스텝 408로 진행하고 도 5에 대하여 상술한 바와 같이 계속한다.
시스템(20)이 LED(50a, 50b, 50c) 중 하나 이상의 사이클 중에 측정될 수 없었던 것으로, 즉 측정으로부터 차단되었던 것으로 결정하면, 알고리즘은 여전히 스텝 408로 이동하지만, 스텝 406에서 측정되는 새로운 LED가 측정될 수 없었던 것이라면, 시스템은 후술하는 바와 같이 소정의 속도 상정을 한다.
LED(50a)와 같은 LED가 스텝 406에서 그 측정 시간 tn에서 광학 센서(40)에 의해 보여지지 않는 경우, 이전 시간 t(n-1)에서 로컬라이저 좌표계 LCLZ에서 추적기(44)의 원점의 이전에 계산된 속도 벡터
Figure 112015019595997-pct00035
는 일정하게 유지되는 것으로 상정된다. 따라서, 로컬라이저 좌표계 LCLZ에서 LED(50a, 50b, 50c)의 속도 벡터는 로컬라이저 좌표계 LCLZ에서 이전에 계산된 속도 벡터
Figure 112015019595997-pct00036
와, 자이로스코프(60)로부터 새롭게 측정된 각속도 벡터로부터 도출되는 LED(50a, 50b, 50c)의 상대적 속도 벡터에 기초하여 계산될 수 있다. 스텝 316-322에 설명된 식은 그 후에 LED(50a, 50b, 50c)의 새로운 위치를 결정하는 데 사용될 수 있다.
LED(50a)가 스텝 406에서 측정될 때 시작하는 것이 방해된다면, 원점의 속도 벡터는 이전 계산과 동일한 것으로 상정된다. 따라서, 새로운 LED의 속도는 스텝 408에서 계산되지 않는다:
Figure 112015019595997-pct00037
스텝 410은 스텝 310과 동일하게 진행된다.
그러면, 스텝 412에서 계산된 LED(50a, 50b, 50c)의 상대적 속도 벡터
Figure 112015019595997-pct00038
은 이전의 속도 벡터
Figure 112015019595997-pct00039
과 뼈 추적기 좌표계 BTRK1에서 자이로스코프(60)로부터 새롭게 측정된 각속도 벡터에 기초한다:
Figure 112015019595997-pct00040
스텝 414에서, 로컬라이저 좌표계 LCLZ에서의 속도 벡터는 원점 속도 벡터
Figure 112015019595997-pct00041
및 LED(50a, 50b, 50c)의 상대적 속도 벡터
Figure 112015019595997-pct00042
을 사용하여 계산될 수 있다.
Figure 112015019595997-pct00043
스텝 416 내지 422는 스텝 316 내지 322와 동일하게 진행한다.
시스템(20)이 스텝 424에서 LED(50a, 50b, 50c) 중 하나 이상이 사이클 중에 측정될 수 없었던 것으로, 즉 측정으로부터 차단되었던 것으로 결정하면, 사이클 내의 모든 LED(50a, 50b, 50c)가 광학 센서(40)에 보일 수 있는 완전한 측정 사이클이 이루어질 때까지 다른 알고리즘이 도 7에 나타내어진 스텝 500 내지 506에서 동시에 수행된다. 따라서, 시스템(20)은, 모든 보여지는 측정을 갖는 완전한 사이클이 이루어질 때까지 "차단" 상태에 있는 것으로 고려된다.
스텝 500 내지 506이 계속 수행되며, 시스템(20)은 차단 상태에 있다.
스텝 500에서, 네비게이션 프로세서(52)는 얼마나 오래 시스템(20)이 차단 상태에 있는지를 추적하는 클럭을 시작한다. 차단 상태에 있는 시간을 이하
Figure 112015019595997-pct00044
이라 칭한다.
스텝 502에서, 가속도계(70)는 일정 속도 상정에서 오차를 추적하기 위해 뼈 추적기 좌표계 BTRK1의 x-, y- 및 z- 축을 따라 가속도를 측정한다. 자이로스코프 판독과 같은 가속도계 판독은 가속도계 좌표계로부터 뼈 추적기 좌표계 BTRK1로 변환된다.
가속도계(70)가 미리 규정된 가속도 공차(들)를 초과하는 가속도(들)를 검출하면, 네비게이션 컴퓨터(26)는 시스템(20)을 오차 상태로 둘 것이다. 가속도 공차는 각각의 x-, y- 및 z- 축을 따라 다르게 규정될 수 있거나 각 축을 따라 동일할 수 있다. 측정된 가속도가 공차를 초과하면 일정 속도 상정이 신뢰될 수 없고 수술 네비게이션의 그 특정 어플리케이션에 대해 사용될 수 없다. 다른 어플리케이션에 대해서는 다른 공차가 채용될 수 있다. 예를 들어, 로봇식 절단 중에는 공차가 매우 낮을 수 있지만, 시각적 네비게이션만에 대해서는, 즉 절단 제어 루프에 대한 피드백이 없으면, 공차는 더 높게 설정될 수 있다.
스텝 504에서, 광학 센서(40)에 대한 LED(50)의 위치와 연관된 속도 오차가 차단된 상태 중에 고려되고 감시된다. 각각의 LED(50)에 대하여, 차단된 상태의 시간
Figure 112015019595997-pct00045
과 곱해진 속도 오차
Figure 112015019595997-pct00046
는 위치 오차 공차
Figure 112015019595997-pct00047
보다 작아야 하며, 따라서 시스템(20)이 오차 상태로 되는 것을 방지하기 위해 이하의 식을 충족시켜야 한다:
Figure 112015019595997-pct00048
이 식에서, 속도 오차
Figure 112015019595997-pct00049
는 이하와 같이 각각의 LED(50a, 50b, 50c)에 대하여 계산된다:
Figure 112015019595997-pct00050
위치 오차
Figure 112015019595997-pct00051
Figure 112015019595997-pct00052
은 시간 t 및 t-1에서 광학 센서(40)에 대한 위치에 기초하는 시스템(20)에서의 미리 규정된 위치 오차이다. 본질적으로, 광학 센서(40)로부터 더 멀리 떨어져 LED(50a, 50b, 50c)가 위치될수록, 잠재적인 위치 오차가 더 높아진다. 이러한 위치 오차는 실험적으로 또는 이론적으로 도출되며, 룩업 테이블 또는 식으로 제공되어, 데카르트 좌표계 (x,y,z)의 LED(50a 50b, 50c)의 각 위치에서 연관된 위치 오차가 제공된다.
스텝 504에서, 로컬화 엔진(100)은 현재 시간 t 및 이전 시간 t-1에서 LED(50a, 50b, 50c)의 각각에 대해 위치 오차를 결정하기 위해 이러한 룩업 테이블에 액세스하거나 이 식을 계산한다. 따라서, 위치 오차는 현재 시간 t 및 이전의 시간 t-1에서 스텝 422에서 시스템(20)에 의해 계산된 로컬라이저 좌표계 LCLZ에서의 데카르트 좌표의 위치에 기초한다. 시간 변수
Figure 112015019595997-pct00053
는 후속 위치 계산에 드는 시간을 나타내며, 즉 t와 t-1 사이이며, 이는 예시적인 목적으로 1 밀리초일 수 있다.
위치 오차 공차
Figure 112015019595997-pct00054
는 로컬화 엔진(100)에 의한 액세스를 위해 네비게이션 컴퓨터(26)에서 미리 규정된다. 위치 오차 공차
Figure 112015019595997-pct00055
는 밀리미터로 표현될 수 있다. 위치 오차 공차
Figure 112015019595997-pct00056
는 0.001 내지 1 밀리미터의 범위에 있을 수 있으며, 일부 실시예에서는 0.5 밀리미터로 특정적으로 설정된다. 따라서, 위치 오차 공차
Figure 112015019595997-pct00057
가 0.5 밀리미터로 설정되면, 이하의 식이 충족되어야 한다:
Figure 112015019595997-pct00058
알 수 있는 바와 같이, 시스템(20)이 차단 상태로 오래 있을수록, 이 식에서 시간 변수가 갖는 효과가 커져서 용인될 속도 오차가 더 작아진다. 일부 실시예에서, 이 식은 각각의 LED(50a 50b, 50c)에 대해 개별로 스텝 504에서 로컬화 엔진(100)에 의해 계산된다. 다른 실시예에서, LED(50a 50b, 50c)가 추적기(44)에 대해 얼마나 밀접하게 배치되었는지로 인해, LED(50a 50b, 50c) 중 1개만의 속도 오차가 준수를 결정하기 위해 이 계산에서 사용된다.
스텝 506에서, 오차(들)가 위치 오차 공차
Figure 112015019595997-pct00059
를 초과하는 경우, 시스템(20)은 오차 상태로 된다. 이러한 상태에서, 예를 들어, 절단 또는 절제 툴의 임의의 제어 또는 이동이 중지되고 툴은 셧 다운된다.
Ⅳ. 다른 실시예
일 실시예에서, 각각의 추적기(44, 46, 48)가 능동적으로 추적되고 있을 때, 추적기(44)로부터 하나의 LED가 점등된 후, 추적기(46)로부터 하나의 LED가 점등된 후, 추적기(48)로부터 하나의 LED가 점등된 후, 추적기(44)로부터 두번째 LED, 그 후 추적기(46)로부터 두번째 LED 등으로 모든 LED가 점등될 때까지 LED의 점등이 발생하고, 그 후 시퀀스가 반복된다. 점등의 이러한 순서는 카메라 유닛(36) 상의 트랜시버(미도시)로부터 추적기(44, 46, 48) 상의 트랜시버(미도시)로 전송되는 명령 신호를 통해 발생할 수 있다.
네비게이션 시스템(20)은 수술 절단 기구에 의해 수행되는 수술 절차를 제어하기 위해 폐쇄 루프 방식으로 사용될 수 있다. 네비게이션 시스템(20)이 기구(22)와 뼈와 같이 절단되고 있는 신체의 위치 및 방향을 추적할 수 있도록 기구(22)와 절단되고 있는 신체 양쪽에 추적기(50)가 갖추어진다.
일 실시예에서, 네비게이션 시스템은 조직을 치료하기 위한 로봇식 수술 시스템의 일부이다. 일부 버전에서, 로봇식 수술 시스템은 뼈 또는 연조직과 같이, 환자의 신체로부터 물질을 절단해 내기 위한 로봇식 수술 절단 시스템이다. 절단 시스템은 유니콤파트먼트, 바이콤파트먼트, 또는 전체 무릎 임플란트를 포함하는 둔부 및 무릎 임플란트와 같은 수술 임플란트를 위해 뼈를 준비하는 데 사용될 수 있다. 이러한 유형의 임플란트 중 일부가 본 개시의 참조로써 여기에 통합되고 발명의 명칭이 "Prosthetic Implant and Method of Implantation"인 미국 특허출원 제13/530,927호에 나타내어져 있다.
로봇식 수술 절단 시스템은 조작자(예를 들어, 도 1 참조)를 포함한다. 조작자는 복수의 아암과 상기 복수의 아암 중 적어도 하나에 의해 수행되는 절단 툴을 갖는다. 로봇식 제어 시스템은 적어도 5도의 자유로 절단 툴의 이동을 제어하거나 제약한다. 이러한 조작자 및 제어 시스템의 예들이, 여기에 참조로써 통합되고, 발명의 명칭이 "Surgical Manipulator Capable of Controlling a Surgical Instrument in either a Semi-Autonomous Mode or a Manual, Boundary Constrained Mode"인 미국 가특허출원 제61/679,258호와, 또한 그 개시가 참조로써 여기에 통합되고 발명의 명칭이 "Navigation System for use with a Surgical Manipulator Operable in Manual or Semi-Autonomous Mode"인 미국 특허출원 제13/958,834호에 나타내어져 있다.
본 실시예에서, 네비게이션 시스템(20)은 (조작자 컨트롤러(54)를 포함할 수 있는) 로봇식 제어 시스템과 통신한다. 네비게이션 시스템(20)은 위치 및/또는 방향 데이터를 상기 로봇식 제어 시스템으로 전달한다. 위치 및/또는 방향 데이터는 신체에 대한 기구(22)의 위치 및/또는 방향을 나타낸다. 이러한 통신은, 절단이 미리 규정된 경계 내에서 이루어지도록 신체의 절단을 제어하기 위해 폐쇄 루프 제어를 제공한다.
본 실시예에서, 조작자 이동은 LED 측정과 일치할 수 있어, 이루어지는 각 LED 측정에 대하여 조작자(56)에 의해 대응하는 기구(22)의 이동이 존재한다. 하지만, 이것은 언제나 그러한 것은 아니다. 예를 들어, 최종 LED 측정과 조작자(56)에 의한 이동 간에 지연이 있을 수 있어, 제어 루프 이동의 목적으로 네비게이션 컴퓨터(26)로부터 조작자(56)로 전송되는 위치 및/또는 방향 데이터가 신뢰할 수 없게 된다. 이 경우에, 네비게이션 컴퓨터(26)가 운동학 데이터를 또한 조작자 컨트롤러(54)로 송신하도록 구성될 수 있다. 이러한 운동학 데이터는 추적기(44, 46, 48)에 대한 이전에 미리 정해진 선형 속도 및 각속도를 포함한다. 속도가 이미 알려져 있으므로, 위치는 시간 지연에 기초하여 계산될 수 있다. 조작자 컨트롤러(54)는 조작자(56)의 이동을 제어할 목적으로, 추적기(44, 46, 48)의 위치 및 방향, 그리고 대퇴골 F 및/또는 경골 T에 대한 기구(22)(또는 기구 팁)의 상대적 위치 및 방향을 계산할 수 있다.
본 실시예에서, 기구(22)는 도 1에 도시된 조작자 또는 이동에 기계적 제약의 일정 형태를 제공하는 다른 로봇에 의해 보유된다. 이러한 제약은 미리 규정된 경계 내에 기구(22)의 이동을 한정한다. 기구(22)가 미리 규정된 경계를 넘어 벗어나면, 절단을 중지하기 위해 컨트롤이 기구(22)에 전송된다.
이 시스템에서 기구(22)와 실시간으로 절단되고 있는 신체 양쪽을 추적할 때, 위치에 있어서 신체를 단단하게 고정할 필요성이 제거될 수 있다. 기구(22)와 신체 양쪽이 추적되므로, 기구(22)의 제어는 신체에 대한 기구(22)의 상대적 위치 및/또는 방향에 기초하여 조정될 수 있다. 또한, 디스플레이 상의 기구(22)와 신체의 표현은 서로에 대해 이동할 수 있어, 그 실제 움직임을 에뮬레이팅한다.
일 실시예에서, 대퇴골 F 및 경골 T의 각각은 수술 기구(22)의 워킹 엔드에 의해 제거되는 물질의 타겟 체적을 갖는다. 타겟 체적은 하나 이상의 경계에 의해 규정된다. 경계는 절차 후에 남아있어야 하는 뼈의 표면을 규정한다. 일부 실시예에서, 시스템(20)은 예를 들어 버인 워킹 엔드가 여기에 참조로써 통합되고, 발명의 명칭이 "Surgical Manipulator Capable of Controlling a Surgical Instrument in either a Semi-Autonomous Mode or a Manual, Boundary Constrained Mode"인 미국 가특허출원 제61/679,258호에 개시된 바와 같이 재료의 타겟 체적만을 제거하고 경계 밖으로 확장하지 않는 것을 보장하기 위해 수술 기구(22)를 추적 및 제어한다.
상술한 실시예에서, 기구(22)의 제어는 버 또는 타겟 체적에 대해 상대적인 다른 절단 툴의 위치 및 방향을 나타내는 좌표 변환기(102)에 의해 생성되는 데이터를 이용함으로써 달성된다. 이러한 상대적 위치를 아는 것에 의해, 수술 기구(22) 또는 이에 장착되는 조작자는, 원하는 물질만이 제거되도록 제어될 수 있다.
다른 시스템에서, 기구(22)는 핸드헬드 하우징에 대해 3도의 자유도로 이동가능하고 절단 지그, 가이드 아암 또는 다른 제약 메커니즘의 도움 없이 의사의 손에 의해 수동으로 위치되는 절단 툴을 갖는다. 이러한 시스템은 그 개시가 여기에 참조로써 통합되고 발명의 명칭이 "Surgical Instrument Including Housing, a Cutting Accessory that Extends from the Housing and Actuators that Establish the Position of the Cutting Accessory Relative to the Housing"인 미국 가특허출원 제61/662,070호에 나타내어져 있다.
이러한 실시예에서, 시스템은 절단 툴을 갖는 핸드 헬드 수술 절단 기구를 포함한다. 제어 시스템은 그 개시가 여기에 참조로써 통합되고 발명의 명칭이 "Surgical Instrument Including Housing, a Cutting Accessory that Extends from the Housing and Actuators that Establish the Position of the Cutting Accessory Relative to the Housing"인 미국 가특허출원 제61/662,070호에 나타내어져 있는 바와 같이, 내부 액튜에이터/모터를 사용하여 적어도 3도의 자유도로 절단 툴의 이동을 제어한다. 네비게이션 시스템(20)은 제어 시스템과 통신한다. (추적기(48)와 같은) 하나의 추적기가 기구에 장착된다. (추적기(44, 46)와 같은) 다른 추적기가 환자의 신체에 장착된다.
본 실시예에서, 네비게이션 시스템(20)은 핸드 헬드 수술 절단 도구의 제어 시스템과 통신한다. 네비게이션 시스템(20)은 제어 시스템으로 위치 및/또는 방향을 전달한다. 위치 및/또는 방향 데이터는 신체에 대한 기구(22)의 위치 및/또는 방향을 나타낸다. 이러한 통신은 미리 규정된 경계 내에서 절단이 일어나도록 신체의 절단을 제어하는 폐쇄 루프 제어를 제공한다(미리 규정된 경계라는 용어는 미리 규정된 궤도, 체적, 선, 다른 형태 또는 기하학 형태 등을 포함하는 것으로 이해됨).
본 발명의 특징은, 카메라 유닛(36)이 수술자에 의해 충돌될 때가 발생할 수 있으므로, 로컬라이저 좌표계 LCLZ의 갑작스럽거나 예측하지 못한 이동을 추적하는 데 사용될 수 있다. 카메라 유닛(36)에 장착된 가속도계(미도시)는 충돌을 감시하고 충돌이 검출되면 시스템(20)을 정지시킨다. 본 실시예에서, 가속도계는 카메라 컨트롤러(42)와 통신하고, x, y, 또는 z 축 중 임의의 것을 따라 측정된 가속도가 미리 정해진 값을 초과하면, 카메라 컨트롤러(42)가 대응 신호를 네비게이션 컴퓨터(26)로 전송하여 시스템(20)을 불능화시키고, 카메라 유닛(36)이 안정화되고 측정을 재개하는 것을 기다린다. 일부 경우에, 초기화 스텝 200, 300, 400은 네비게이션을 재개하기 전에 반복되어야 할 것이다.
일부 실시예에서, 가상 LED가 기구(22)의 워킹 팁에 위치된다. 본 실시예에서, 가상 LED는, 워킹 팁 위치가 연속하여 계산되도록, 기구 추적기(48)의 모델에서 워킹 팁의 위치에 위치된다.
본 발명의 진정한 사상 및 범위 내에 드는 이러한 모든 수정 및 변형을 포함하는 것이 의도된 청구항의 목적이다. 또한, 상술한 실시예는 의료 어플리케이션에 관한 것이지만, 여기에 설명된 본 발명은 산업, 항공우주, 방위 등과 같은 다른 어플리케이션에도 적용가능하다.

Claims (55)

  1. 물체를 추적하기 위한 네비게이션 시스템으로서,
    복수의 광학 센서들;
    상기 물체를 장착하는 추적기로서, 상기 추적기는 3개의 마커들 및 비광학 센서를 포함하고, 상기 복수의 광학 센서들은 상기 마커들로부터 순차적으로 광학 신호를 수신하도록 구성되고, 상기 비광학 센서는 비광학 신호를 생성하도록 구성되는, 추적기; 및
    적어도 하나의 프로세서를 포함하는 컴퓨팅 시스템으로서, 제1 마커로부터의 제1 광학 신호에 기초하여 제1 시간에 상기 제1 마커의 위치를 결정하고, 상기 제1 광학 신호 및 상기 비광학 센서로부터의 비광학 신호에 기초하여 상기 제1 시간에 제2 마커 및 제3 마커의 위치를 결정하며, 상기 물체의 위치를 추적하기 위하여 상기 물체에 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 결정된 상기 위치를 상관시키도록 구성되는, 컴퓨팅 시스템을 포함하고,
    상기 적어도 하나의 프로세서는, 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 초기 위치 데이터를 확립하기 위하여 초기 시간에 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 초기 위치를 측정하도록 구성되며,
    상기 적어도 하나의 프로세서는:
    상기 제1 광학 신호에 기초하여 상기 제1 시간에서의 상기 제1 마커의 선형 속도 벡터를 계산하고,
    상기 비광학 센서로부터의 상기 비광학 신호에 기초하여 상기 제1 시간에서의 상기 추적기의 각속도 벡터를 측정하고,
    측정된 상기 추적기의 각속도 벡터 및 상기 제1 마커의 위치를 이용하여 상기 제1 시간에서의 상기 추적기의 추적기 좌표계의 원점의 상대적 속도 벡터를 계산하고,
    상기 추적기 좌표계에서의 상기 제2 마커 및 상기 제3 마커의 초기 위치를 포함하는 상기 제2 마커 및 상기 제3 마커의 초기 위치 데이터, 및 측정된 상기 추적기의 각속도 벡터를 이용하여 상기 제1 시간에서의 상기 제2 마커 및 상기 제3 마커의 상대적 속도 벡터를 계산하고,
    계산된 상기 제1 마커의 상기 선형 속도 벡터, 및 계산된 상기 추적기 좌표계의 원점의 상기 상대적 속도 벡터를 이용하여 상기 제1 시간에서의 상기 추적기 좌표계의 원점의 속도 벡터를 계산하고,
    계산된 상기 추적기 좌표계의 원점의 속도 벡터, 및 계산된 상기 제2 마커 및 상기 제3 마커의 상대적 속도 벡터를 이용하여 상기 제1 시간에서의 상기 제2 마커 및 상기 제3 마커의 속도 벡터를 계산하고,
    계산된 상기 제1 시간에서의 상기 제2 마커 및 상기 제3 마커의 속도 벡터를 이용하여 상기 제1 시간에서의 상기 제2 마커 및 상기 제3 마커의 위치를 계산하도록 구성되는, 네비게이션 시스템.
  2. 제1항에 있어서,
    상기 비광학 센서는 상기 마커들의 각각에 대하여 알려진 위치에 배치되는, 네비게이션 시스템.
  3. 제1항에 있어서,
    상기 마커들은 수동 반사기들인, 네비게이션 시스템.
  4. 제1항에 있어서,
    상기 마커들은 상기 제2 마커 및 상기 제3 마커가 광학 신호를 방출하기 전 상기 제1 시간에 상기 제1 마커가 상기 제1 광학 신호를 방출하도록 순차적으로 광학 신호들을 방출하는 능동 발광기들인, 네비게이션 시스템.
  5. 제4항에 있어서,
    상기 능동 발광기들은 발광 다이오드들인, 네비게이션 시스템.
  6. 제1항에 있어서,
    상기 복수의 광학 센서들은 카메라 유닛에 하우징되는, 네비게이션 시스템.
  7. 제6항에 있어서,
    상기 복수의 광학 센서들은 제1 광학 센서, 제2 광학 센서 및 제3 광학 센서로 한정되는, 네비게이션 시스템.
  8. 제7항에 있어서,
    상기 제1 광학 센서, 제2 광학 센서 및 제3 광학 센서는 1차원 전하 결합 소자들인, 네비게이션 시스템.
  9. 제1항에 있어서,
    3개의 마커들 및 제2 비광학 센서를 갖는 제2 추적기를 포함하는, 네비게이션 시스템.
  10. 제9항에 있어서,
    상기 추적기 및 제2 추적기는 뼈에 장착하도록 구성되는, 네비게이션 시스템.
  11. 삭제
  12. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 물체의 위치 및 방향을 추적하기 위하여 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 결정된 상기 위치를 상기 물체에 상관시키도록 구성되는, 네비게이션 시스템.
  13. 제12항에 있어서,
    환자의 신체에 대한 랜드마크들을 선택하도록 구성된 탐침을 포함하고, 상기 탐침은 상기 랜드마크들의 선택 중에 상기 복수의 광학 센서들로 신호들을 송신하기 위한 복수의 마커들을 갖는, 네비게이션 시스템.
  14. 삭제
  15. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 광학 신호들을 상기 복수의 광학 센서들로 송신하는 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커를 순차적으로 점등함으로써 상기 초기 위치 데이터를 확립하기 위해 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 상기 초기 위치들을 측정하도록 구성되는, 네비게이션 시스템.
  16. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 초기 위치 데이터를 확립하면서 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 속도들을 계산하도록 구성되고, 계산된 속도들을 미리 정해진 임계치와 비교하도록 구성되는, 네비게이션 시스템.
  17. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 초기 시간에 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 측정된 상기 초기 위치들을 상기 컴퓨팅 시스템에 저장된 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커의 모델과 비교하도록 구성되는, 네비게이션 시스템.
  18. 제17항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 제1 마커, 상기 제2 마커 및 상기 제3 마커를 상기 모델에 매칭하도록 구성되는, 네비게이션 시스템.
  19. 제18항에 있어서,
    상기 적어도 하나의 프로세서는, 하나 이상의 가상 마커들을 상기 모델에 매칭하도록 구성되는, 네비게이션 시스템.
  20. 제17항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 추적기 좌표계로부터 로컬라이저 좌표계로의 변환 행렬을 생성하도록 구성되는, 네비게이션 시스템.
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 하나 이상의 가상 마커들에 대하여 상대적 속도 벡터들을 계산하도록 구성되는, 네비게이션 시스템.
  29. 제28항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 원점의 계산된 상기 속도 벡터와 상기 하나 이상의 가상 마커들의 계산된 상기 상대적 속도 벡터들에 기초하여 상기 제1 시간에 상기 하나 이상의 가상 마커들의 속도 벡터들을 계산하도록 구성되는, 네비게이션 시스템.
  30. 제29항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 제1 시간에서 상기 하나 이상의 가상 마커들의 계산된 상기 속도 벡터들에 기초하여 상기 제1 시간에서 상기 하나 이상의 가상 마커들의 위치를 계산하도록 구성되는, 네비게이션 시스템.
  31. 제1항에 있어서,
    상기 제1 시간은 제1 시간 구간을 포함하는, 네비게이션 시스템.
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
  42. 삭제
  43. 삭제
  44. 삭제
  45. 삭제
  46. 삭제
  47. 삭제
  48. 삭제
  49. 삭제
  50. 삭제
  51. 삭제
  52. 삭제
  53. 삭제
  54. 삭제
  55. 삭제
KR1020157005182A 2012-09-26 2013-09-25 광학 및 비광학 센서를 포함하는 네비게이션 시스템 KR101974102B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261705804P 2012-09-26 2012-09-26
US61/705,804 2012-09-26
US14/035,207 2013-09-24
US14/035,207 US9008757B2 (en) 2012-09-26 2013-09-24 Navigation system including optical and non-optical sensors
PCT/US2013/061642 WO2014052428A1 (en) 2012-09-26 2013-09-25 Navigation system including optical and non-optical sensors

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020197011736A Division KR102216509B1 (ko) 2012-09-26 2013-09-25 광학 및 비광학 센서를 포함하는 네비게이션 시스템

Publications (2)

Publication Number Publication Date
KR20150064015A KR20150064015A (ko) 2015-06-10
KR101974102B1 true KR101974102B1 (ko) 2019-04-30

Family

ID=50339531

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020157005182A KR101974102B1 (ko) 2012-09-26 2013-09-25 광학 및 비광학 센서를 포함하는 네비게이션 시스템
KR1020217003677A KR102310664B1 (ko) 2012-09-26 2013-09-25 광학 및 비광학 센서를 포함하는 네비게이션 시스템
KR1020197011736A KR102216509B1 (ko) 2012-09-26 2013-09-25 광학 및 비광학 센서를 포함하는 네비게이션 시스템

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020217003677A KR102310664B1 (ko) 2012-09-26 2013-09-25 광학 및 비광학 센서를 포함하는 네비게이션 시스템
KR1020197011736A KR102216509B1 (ko) 2012-09-26 2013-09-25 광학 및 비광학 센서를 포함하는 네비게이션 시스템

Country Status (8)

Country Link
US (6) US9008757B2 (ko)
EP (2) EP2900164B1 (ko)
JP (3) JP6370789B2 (ko)
KR (3) KR101974102B1 (ko)
CN (3) CN109171964B (ko)
AU (3) AU2013323646B2 (ko)
CA (1) CA2883508A1 (ko)
WO (1) WO2014052428A1 (ko)

Families Citing this family (205)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7635390B1 (en) 2000-01-14 2009-12-22 Marctec, Llc Joint replacement component having a modular articulating surface
US7708741B1 (en) 2001-08-28 2010-05-04 Marctec, Llc Method of preparing bones for knee replacement surgery
US9155544B2 (en) 2002-03-20 2015-10-13 P Tech, Llc Robotic systems and methods
US8121361B2 (en) 2006-05-19 2012-02-21 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
US11857266B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. System for a surveillance marker in robotic-assisted surgery
US11253327B2 (en) 2012-06-21 2022-02-22 Globus Medical, Inc. Systems and methods for automatically changing an end-effector on a surgical robot
US11317971B2 (en) 2012-06-21 2022-05-03 Globus Medical, Inc. Systems and methods related to robotic guidance in surgery
US11963755B2 (en) 2012-06-21 2024-04-23 Globus Medical Inc. Apparatus for recording probe movement
US20190380794A1 (en) * 2012-06-21 2019-12-19 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11786324B2 (en) 2012-06-21 2023-10-17 Globus Medical, Inc. Surgical robotic automation with tracking markers
US11045267B2 (en) 2012-06-21 2021-06-29 Globus Medical, Inc. Surgical robotic automation with tracking markers
US10799298B2 (en) 2012-06-21 2020-10-13 Globus Medical Inc. Robotic fluoroscopic navigation
US10874466B2 (en) 2012-06-21 2020-12-29 Globus Medical, Inc. System and method for surgical tool insertion using multiaxis force and moment feedback
US11298196B2 (en) 2012-06-21 2022-04-12 Globus Medical Inc. Surgical robotic automation with tracking markers and controlled tool advancement
US10231791B2 (en) 2012-06-21 2019-03-19 Globus Medical, Inc. Infrared signal based position recognition system for use with a robot-assisted surgery
US11857149B2 (en) 2012-06-21 2024-01-02 Globus Medical, Inc. Surgical robotic systems with target trajectory deviation monitoring and related methods
US10758315B2 (en) 2012-06-21 2020-09-01 Globus Medical Inc. Method and system for improving 2D-3D registration convergence
US12004905B2 (en) 2012-06-21 2024-06-11 Globus Medical, Inc. Medical imaging systems using robotic actuators and related methods
US11793570B2 (en) 2012-06-21 2023-10-24 Globus Medical Inc. Surgical robotic automation with tracking markers
US11399900B2 (en) 2012-06-21 2022-08-02 Globus Medical, Inc. Robotic systems providing co-registration using natural fiducials and related methods
US11974822B2 (en) 2012-06-21 2024-05-07 Globus Medical Inc. Method for a surveillance marker in robotic-assisted surgery
US11896446B2 (en) 2012-06-21 2024-02-13 Globus Medical, Inc Surgical robotic automation with tracking markers
US11589771B2 (en) 2012-06-21 2023-02-28 Globus Medical Inc. Method for recording probe movement and determining an extent of matter removed
US11864839B2 (en) 2012-06-21 2024-01-09 Globus Medical Inc. Methods of adjusting a virtual implant and related surgical navigation systems
US11864745B2 (en) 2012-06-21 2024-01-09 Globus Medical, Inc. Surgical robotic system with retractor
US10624710B2 (en) 2012-06-21 2020-04-21 Globus Medical, Inc. System and method for measuring depth of instrumentation
US9008757B2 (en) * 2012-09-26 2015-04-14 Stryker Corporation Navigation system including optical and non-optical sensors
US9993273B2 (en) 2013-01-16 2018-06-12 Mako Surgical Corp. Bone plate and tracking device using a bone plate for attaching to a patient's anatomy
CN108742842B (zh) 2013-01-16 2022-04-19 史赛克公司 指示视线误差的导航系统和方法
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) * 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
CN105431102B (zh) 2013-06-11 2018-01-30 迷你麦克斯医疗 用于身体部分的计划量的处理的系统
US10390737B2 (en) 2013-09-30 2019-08-27 Stryker Corporation System and method of controlling a robotic system for manipulating anatomy of a patient during a surgical procedure
EP3228254B1 (en) 2014-02-21 2020-01-01 3DIntegrated ApS A set comprising a surgical instrument
CN106572810A (zh) 2014-03-24 2017-04-19 凯内蒂科尔股份有限公司 去除医学成像扫描的预期运动校正的系统、方法和装置
CN106232048B (zh) 2014-04-24 2019-05-03 柯惠Lp公司 机器人接口定位确定系统及方法
EP3811891A3 (en) 2014-05-14 2021-05-05 Stryker European Holdings I, LLC Navigation system and processor arrangement for tracking the position of a work target
JP6205387B2 (ja) * 2014-06-04 2017-09-27 アニマ株式会社 仮想マーカーの位置情報の取得方法及び装置、動作計測方法
US9734589B2 (en) 2014-07-23 2017-08-15 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
KR102652836B1 (ko) 2014-08-12 2024-04-01 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 비제어 이동 검출
KR101645392B1 (ko) * 2014-08-13 2016-08-02 주식회사 고영테크놀러지 트랙킹 시스템 및 이를 이용한 트랙킹 방법
CN107072718A (zh) * 2014-08-28 2017-08-18 费瑟特-链接公司 具有自主导航的手持式外科器具
US10314463B2 (en) 2014-10-24 2019-06-11 Auris Health, Inc. Automated endoscope calibration
CN107112981B (zh) 2014-10-31 2021-02-26 美敦力先进能量有限公司 用于减少rf泄漏电流的手指开关电路
JP6712994B2 (ja) * 2014-11-21 2020-06-24 シンク サージカル, インコーポレイテッド 視覚的追跡システムと追跡マーカーとの間でデータを伝送するための、可視光通信システム
GB2548056B (en) 2014-11-25 2020-07-29 Synaptive Medical Barbados Inc Sensor based tracking tool for medical components
DE102015201460B4 (de) * 2015-01-28 2023-05-17 Siemens Healthcare Gmbh Positionsbestimmung eines medizinischen Instruments
CN104658393A (zh) * 2015-02-10 2015-05-27 上海理工大学 腹腔镜模拟手术训练评价系统及方法
US10660711B2 (en) 2015-02-25 2020-05-26 Mako Surgical Corp. Navigation systems and methods for reducing tracking interruptions during a surgical procedure
AU2016246745B2 (en) * 2015-04-10 2020-11-26 Mako Surgical Corp. System and method of controlling a surgical tool during autonomous movement of the surgical tool
US10470724B2 (en) 2015-04-13 2019-11-12 Precisionrad Llc Laser and accelerometer guided medical device
KR102491910B1 (ko) 2015-05-19 2023-01-26 마코 서지컬 코포레이션 해부체를 조작하는 시스템 및 방법
DE102015109371A1 (de) * 2015-06-12 2016-12-15 avateramedical GmBH Vorrichtung und Verfahren zur robotergestützten Chirurgie
WO2017004056A1 (en) 2015-07-01 2017-01-05 Mako Surgical Corp. Robotic systems and methods for controlling a tool removing material from a workpiece
US11020144B2 (en) 2015-07-21 2021-06-01 3Dintegrated Aps Minimally invasive surgery system
EP3145419B1 (en) 2015-07-21 2019-11-27 3dintegrated ApS Cannula assembly kit, trocar assembly kit and minimally invasive surgery system
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
DK178899B1 (en) 2015-10-09 2017-05-08 3Dintegrated Aps A depiction system
US10058393B2 (en) 2015-10-21 2018-08-28 P Tech, Llc Systems and methods for navigation and visualization
US10828125B2 (en) * 2015-11-03 2020-11-10 Synaptive Medical (Barbados) Inc. Dual zoom and dual field-of-view microscope
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
KR102430277B1 (ko) * 2015-11-27 2022-08-09 큐렉소 주식회사 정형외과 수술용 마커 위치 확인 시스템 및 그 확인 방법
CN113925610B (zh) 2015-12-31 2024-08-13 史赛克公司 用于在由虚拟对象限定的目标部位处对患者执行手术的系统和方法
US11883217B2 (en) 2016-02-03 2024-01-30 Globus Medical, Inc. Portable medical imaging system and method
US11064904B2 (en) 2016-02-29 2021-07-20 Extremity Development Company, Llc Smart drill, jig, and method of orthopedic surgery
EP3249427B1 (en) * 2016-04-22 2019-06-12 Globus Medical, Inc. A device for regenerating an infrared signal
CA3025300A1 (en) 2016-05-23 2017-11-30 Mako Surgical Corp. Systems and methods for identifying and tracking physical objects during a robotic surgical procedure
US10537395B2 (en) 2016-05-26 2020-01-21 MAKO Surgical Group Navigation tracker with kinematic connector assembly
US20210030479A1 (en) * 2016-06-02 2021-02-04 Atracsys Sàrl Mobile surgical navigation system
US11229489B2 (en) 2016-06-16 2022-01-25 Zimmer, Inc. Soft tissue balancing in articular surgery
US10136952B2 (en) 2016-06-16 2018-11-27 Zimmer, Inc. Soft tissue balancing in articular surgery
BR112018076566A2 (pt) * 2016-06-20 2019-07-16 Avra Medical Robotics Inc sistema robótico para tratar a pele de um paciente, método para tratar uma região de pele de um paciente, e, unidade de navegação
KR101848027B1 (ko) * 2016-08-16 2018-04-12 주식회사 고영테크놀러지 정위수술용 수술로봇 시스템 및 정위수술용 로봇의 제어방법
CN110248618B (zh) 2016-09-09 2024-01-09 莫比乌斯成像公司 用于在计算机辅助手术中显示患者数据的方法及系统
US9931025B1 (en) 2016-09-30 2018-04-03 Auris Surgical Robotics, Inc. Automated calibration of endoscopes with pull wires
US10318024B2 (en) * 2016-10-14 2019-06-11 Orthosoft, Inc. Mechanical optical pointer
WO2018075935A1 (en) 2016-10-21 2018-04-26 Mako Surgical Corp. Systems and tools for use with surgical robotic manipulators
WO2018075784A1 (en) * 2016-10-21 2018-04-26 Syverson Benjamin Methods and systems for setting trajectories and target locations for image guided surgery
AU2017362768A1 (en) 2016-11-18 2019-05-30 Stryker Corp. Method and apparatus for treating a joint, including the treatment of CAM-type femoroacetabular impingement in a hip joint and pincer-type femoroacetabular impingement in a hip joint
WO2018092114A1 (en) * 2016-11-21 2018-05-24 St. Jude Medical International Holding S.À R.L. Fluorolucent magnetic field generator
US11612307B2 (en) 2016-11-24 2023-03-28 University Of Washington Light field capture and rendering for head-mounted displays
US11633233B2 (en) 2016-12-08 2023-04-25 Orthotaxy S.A.S. Surgical system for cutting an anatomical structure according to at least one target cutting plane
CN110114019B (zh) 2016-12-08 2022-04-12 安托踏实公司 用于根据至少一个目标平面切割解剖结构的外科系统
US11607229B2 (en) 2016-12-08 2023-03-21 Orthotaxy S.A.S. Surgical system for cutting an anatomical structure according to at least one target plane
EP3554414A1 (en) 2016-12-16 2019-10-23 MAKO Surgical Corp. Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site
EP3554774A1 (en) 2016-12-16 2019-10-23 Mako Surgical Corp. Techniques for detecting errors or loss of accuracy in a surgical robotic system
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
US11071590B2 (en) 2017-04-14 2021-07-27 Stryker Corporation Surgical systems and methods for facilitating ad-hoc intraoperative planning of surgical procedures
US11033341B2 (en) 2017-05-10 2021-06-15 Mako Surgical Corp. Robotic spine surgery system and methods
WO2018209042A2 (en) 2017-05-10 2018-11-15 Mako Surgical Corp. Robotic spine surgery system and methods
EP3621520A4 (en) 2017-05-12 2021-02-17 Auris Health, Inc. BIOPSY APPARATUS AND SYSTEM
AU2018282197A1 (en) 2017-06-09 2019-12-19 Mako Surgical Corp. Robotic system and method for producing reactive forces to implement virtual boundaries
AU2018279732B2 (en) 2017-06-09 2024-03-07 Mako Surgical Corp. Systems and tools for positioning workpieces with surgical robots
CN107149722B (zh) * 2017-06-20 2020-10-09 深圳市瀚翔生物医疗电子股份有限公司 一种经颅磁刺激治疗设备
US10426559B2 (en) 2017-06-30 2019-10-01 Auris Health, Inc. Systems and methods for medical instrument compression compensation
US10806529B2 (en) * 2017-07-20 2020-10-20 Mako Surgical Corp. System and method for robotically assisting a surgical procedure
US11027432B2 (en) 2017-09-06 2021-06-08 Stryker Corporation Techniques for controlling position of an end effector of a robotic device relative to a virtual constraint
US10145747B1 (en) 2017-10-10 2018-12-04 Auris Health, Inc. Detection of undesirable forces on a surgical robotic arm
KR20170123305A (ko) * 2017-10-30 2017-11-07 이일권 내비게이터를 가진 인체 시술 장치 및 그에 의한 인체 시술 위치 표시 방법
US11173048B2 (en) 2017-11-07 2021-11-16 Howmedica Osteonics Corp. Robotic system for shoulder arthroplasty using stemless implant components
US11241285B2 (en) 2017-11-07 2022-02-08 Mako Surgical Corp. Robotic system for shoulder arthroplasty using stemless implant components
US11432945B2 (en) 2017-11-07 2022-09-06 Howmedica Osteonics Corp. Robotic system for shoulder arthroplasty using stemless implant components
US10555781B2 (en) 2017-11-15 2020-02-11 Stryker Corporation High bandwidth and low latency hybrid communication techniques for a navigation system
AU2018380139B2 (en) * 2017-12-06 2024-01-25 Auris Health, Inc. Systems and methods to correct for uncommanded instrument roll
AU2018384820B2 (en) 2017-12-14 2024-07-04 Auris Health, Inc. System and method for estimating instrument location
CN111655186B (zh) 2018-01-26 2024-05-24 马科外科公司 用于驱动由手术机器人系统引导的工具的末端执行器和方法
KR20200115518A (ko) 2018-01-26 2020-10-07 마코 서지컬 코포레이션 수술 로봇에 의해 가이드된 보철물에 충격을 가하기 위한 엔드 이펙터, 시스템 및 방법
US11464569B2 (en) 2018-01-29 2022-10-11 Stryker Corporation Systems and methods for pre-operative visualization of a joint
CN116370084A (zh) 2018-02-13 2023-07-04 奥瑞斯健康公司 用于驱动医疗器械的系统和方法
AU2019222578A1 (en) 2018-02-19 2020-09-03 Mako Surgical Corp. Surgical systems and methods for identifying tools guided by surgical robots
US10881472B2 (en) * 2018-02-20 2021-01-05 Verb Surgical Inc. Correcting a robotic surgery user interface device tracking input
US11464577B2 (en) 2018-03-02 2022-10-11 Mako Surgical Corp. Tool assembly, systems, and methods for manipulating tissue
CN108324373B (zh) * 2018-03-19 2020-11-27 南开大学 一种基于电磁定位系统的穿刺手术机器人精确定位实现方法
US10933526B2 (en) * 2018-04-23 2021-03-02 General Electric Company Method and robotic system for manipulating instruments
TWI678181B (zh) * 2018-04-30 2019-12-01 長庚大學 手術導引系統
EP3569159A1 (en) * 2018-05-14 2019-11-20 Orthotaxy Surgical system for cutting an anatomical structure according to at least one target plane
US11191594B2 (en) 2018-05-25 2021-12-07 Mako Surgical Corp. Versatile tracking arrays for a navigation system and methods of recovering registration using the same
US11292135B2 (en) 2018-05-31 2022-04-05 Mako Surgical Corp. Rotating switch sensor for a robotic system
EP3581121A1 (en) 2018-06-15 2019-12-18 MAKO Surgical Corp. Techniques for patient-specific milling path generation
US11007018B2 (en) 2018-06-15 2021-05-18 Mako Surgical Corp. Systems and methods for tracking objects
US11510737B2 (en) 2018-06-21 2022-11-29 Mako Surgical Corp. Patella tracking
DE102018211185A1 (de) * 2018-07-06 2020-01-09 Neuroloop GmbH Vorrichtung zur transkutanen Lokalisation eines intrakorporal, subkutan verorteten medizinischen Implantats
DE102019004235B4 (de) 2018-07-16 2024-01-18 Mako Surgical Corp. System und verfahren zur bildbasierten registrierung und kalibrierung
CN109009438B (zh) * 2018-09-13 2021-06-01 上海逸动医学科技有限公司 柔性无创定位装置及其在术中手术路径规划的应用及系统
US11253330B2 (en) 2018-09-26 2022-02-22 Mako Surgical Corp. Systems and tools for use with surgical robotic manipulators
EP3856064A4 (en) 2018-09-28 2022-06-29 Auris Health, Inc. Systems and methods for docking medical instruments
US11707259B2 (en) 2018-10-19 2023-07-25 Canon U.S.A., Inc. Wireless needle guidance using encoder sensor and encoder scale to achieve positional sensing between movable components
US11684489B2 (en) 2018-10-29 2023-06-27 Mako Surgical Corp. Robotic system for ankle arthroplasty
JP7506669B2 (ja) 2018-11-08 2024-06-26 マコ サージカル コーポレーション ロボット脊椎手術システム及び方法
US11123142B2 (en) * 2018-12-06 2021-09-21 Biosense Webster (Israel) Ltd. Quick registration of coordinate systems for robotic surgery
US11547482B2 (en) 2018-12-13 2023-01-10 Mako Surgical Corp. Techniques for patient-specific morphing of virtual boundaries
US11819287B2 (en) 2018-12-17 2023-11-21 Zimmer Biomet Spine, Inc. Universal navigation instrument adapter
WO2020157985A1 (ja) * 2019-02-01 2020-08-06 TCC Media Lab株式会社 合成画像生成システム及び初期条件リセットシステム
US11337761B2 (en) 2019-02-07 2022-05-24 Stryker European Operations Limited Surgical systems and methods for facilitating tissue treatment
CN109758234B (zh) * 2019-02-15 2020-07-31 哈尔滨工业大学 用于微创手术移动腹腔镜自动控制系统及其控制方法
US11564761B2 (en) 2019-03-08 2023-01-31 Mako Surgical Corp. Systems and methods for controlling movement of a surgical tool along a predefined path
EP3937821A1 (en) 2019-03-15 2022-01-19 Mako Surgical Corporation Robotic surgical system and methods utilizing a cutting bur for bone penetration and cannulation
JP7260877B2 (ja) * 2019-05-21 2023-04-19 国立大学法人 東京大学 ロボットハンド、ロボットハンドの制御装置、およびロボットシステム
US12059804B2 (en) 2019-05-22 2024-08-13 Mako Surgical Corp. Bidirectional kinematic mount
EP3747389A1 (en) * 2019-06-05 2020-12-09 Globus Medical, Inc. Surgical robotic automation with tracking markers
CN113993477A (zh) * 2019-07-01 2022-01-28 史密夫和内修有限公司 手术辅助装置
US11832892B2 (en) 2019-07-10 2023-12-05 Mako Surgical Corp. Navigation systems for communicating tracker status conditions
WO2021011646A2 (en) 2019-07-15 2021-01-21 Stryker Corporation Robotic hand-held surgical instrument systems and methods
FR3100884B1 (fr) * 2019-09-17 2021-10-22 Safran Electronics & Defense Procédé et système de positionnement de véhicule mettant en œuvre un dispositif de capture d’image
CN110695993B (zh) * 2019-09-27 2021-02-02 哈尔滨工业大学(深圳) 一种柔性机械臂同步测量方法、系统及装置
KR20220070212A (ko) 2019-09-30 2022-05-30 마코 서지컬 코포레이션 도구의 이동을 안내하기 위한 시스템 및 방법
AU2020357877A1 (en) 2019-10-01 2022-05-19 Mako Surgical Corp. Surgical systems for guiding robotic manipulators
DE102019007290A1 (de) * 2019-10-21 2021-04-22 Karl Storz Se & Co. Kg Sensorbasiertes Chirurgie-Set und Verfahren
FI20196022A1 (en) * 2019-11-27 2021-05-28 Novatron Oy Method and positioning system for determining the position and orientation of a machine
CN114901192A (zh) 2019-12-31 2022-08-12 奥瑞斯健康公司 用于经皮进入的对准技术
EP4084721A4 (en) 2019-12-31 2024-01-03 Auris Health, Inc. IDENTIFICATION OF AN ANATOMIC FEATURE AND AIMING
EP4084722A4 (en) 2019-12-31 2024-01-10 Auris Health, Inc. ALIGNMENT INTERFACES FOR PERCUTANE ACCESS
WO2021158367A1 (en) 2020-02-04 2021-08-12 Mako Surgical Corp. Robotic hand-held surgical instrument systems with a visual indicator and methods of controlling the same
US11298197B2 (en) * 2020-02-13 2022-04-12 Smith & Nephew, Inc. Methods and systems for robotic-assisted insertion of medical fasteners
CN111281541B (zh) * 2020-03-09 2021-06-15 中国人民解放军总医院 检测手术中导航标志物移动的方法和装置
EP3886056A1 (en) 2020-03-16 2021-09-29 Stryker Australia PTY LTD Automated cut planning for removal of diseased regions
EP4125692A2 (en) 2020-03-27 2023-02-08 MAKO Surgical Corp. Robotic spine surgery system and methods with haptic interface
CN115379814A (zh) 2020-03-27 2022-11-22 马科外科公司 用于基于虚拟边界控制工具的机器人移动的系统和方法
US10949986B1 (en) 2020-05-12 2021-03-16 Proprio, Inc. Methods and systems for imaging a scene, such as a medical scene, and tracking objects within the scene
WO2021231994A1 (en) * 2020-05-15 2021-11-18 Jeffrey Wilde Joint implant extraction and placement system and localization device used therewith
EP3922203A1 (en) * 2020-06-09 2021-12-15 Globus Medical, Inc. Surgical object tracking in visible light via fiducial seeding and synthetic image registration
JP2023530652A (ja) 2020-06-09 2023-07-19 ストライカー・ライビンガー・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング・ウント・コンパニー・コマンディトゲゼルシャフト コンピュータ支援インターベンション用の空間認識ディスプレイ
CN113876425B (zh) * 2020-07-01 2023-09-12 北京和华瑞博医疗科技有限公司 外科手术系统及导航方法
US11980426B2 (en) 2020-08-03 2024-05-14 Warsaw Orthopedic, Inc. System and method for preliminary registration
EP3949889A1 (en) 2020-08-05 2022-02-09 MAKO Surgical Corp. Robotic surgical system including a coupler for connecting a tool to a manipulator and methods of using the coupler
US11844697B2 (en) 2020-09-03 2023-12-19 Globus Medical, Inc. Systems and methods for knee arthroplasty
AU2021342049A1 (en) 2020-09-08 2023-01-19 Mako Surgical Corp. Systems and methods for guiding movement of a handheld medical robotic instrument
EP4216865A1 (en) 2020-09-22 2023-08-02 Mobius Imaging, LLC Mount assemblies for use with navigated surgical systems
WO2022067066A1 (en) 2020-09-24 2022-03-31 Mako Surgical Corp. Interlocking collet system for a surgical device
EP4240267A1 (en) 2020-11-06 2023-09-13 Stryker Corporation Robotic hand-held surgical instrument systems and methods
CN112641511B (zh) 2020-12-18 2021-09-10 北京长木谷医疗科技有限公司 关节置换手术导航系统及方法
CN112641510B (zh) 2020-12-18 2021-08-17 北京长木谷医疗科技有限公司 关节置换手术机器人导航定位系统及方法
AU2021413098A1 (en) 2020-12-31 2023-07-20 Mako Surgical Corp. Robotic systems and methods for mitigating undesired orientational motion of kinematic components
US11295460B1 (en) 2021-01-04 2022-04-05 Proprio, Inc. Methods and systems for registering preoperative image data to intraoperative image data of a scene, such as a surgical scene
WO2022159574A1 (en) 2021-01-20 2022-07-28 Mako Surgical Corp. Robotic hand-held surgical instrument systems and methods
WO2022159568A1 (en) 2021-01-20 2022-07-28 Mako Surgical Corp. Robotic hand-held surgical instrument systems and methods
WO2022173793A1 (en) 2021-02-11 2022-08-18 Mako Surgical Corp. Robotic manipulator comprising isolation mechanism for force/torque sensor
EP4297686A2 (en) 2021-02-26 2024-01-03 Stryker European Operations Limited Tracker and related accessories for a surgical navigation system
WO2022182963A2 (en) 2021-02-26 2022-09-01 Mobius Imaging Llc Rotational tracker adapter with biasing mechanism
CN115525046A (zh) * 2021-06-24 2022-12-27 深圳乐动机器人股份有限公司 机器人及其沿边控制方法
US20230013867A1 (en) 2021-07-19 2023-01-19 Mako Surgical Corp. Surgical Tool Guard
EP4384108A1 (en) 2021-08-10 2024-06-19 MAKO Surgical Corp. Tracking apparatus for tracking a patient limb
US12016642B2 (en) 2021-09-08 2024-06-25 Proprio, Inc. Constellations for tracking instruments, such as surgical instruments, and associated systems and methods
US20230190378A1 (en) 2021-12-20 2023-06-22 Mako Surgical Corp. Robotic Systems, Methods And Software Programs For Modifying Tool Operation Based On Tissue Parameters
CN114288021A (zh) * 2021-12-31 2022-04-08 上海霖晏医疗科技有限公司 一种单游离追踪球的监测系统及方法
AU2022432843A1 (en) 2022-01-12 2024-08-01 Mako Surgical Corp. Systems and methods for guiding movement of a hand-held medical robotic instrument
WO2023141265A2 (en) 2022-01-20 2023-07-27 Mako Surgical Corp. Robotic hand-held surgical system
WO2023154301A2 (en) 2022-02-08 2023-08-17 Mobius Imaging, Llc Resilient drape assemblies with guides for use with surgical robots
WO2023154432A1 (en) 2022-02-10 2023-08-17 Mobius Imaging, Llc Medical imaging system and methods
CN114683279B (zh) * 2022-02-17 2023-05-23 广东博智林机器人有限公司 导航精度的确定方法、装置和电子设备
US20230277256A1 (en) 2022-03-02 2023-09-07 Mako Surgical Corp. Robotic System Including A Link Tracker
US20230329813A1 (en) 2022-04-18 2023-10-19 Mako Surgical Corp. Systems And Methods For Guided Placement Of A Robotic Manipulator
WO2023230034A1 (en) 2022-05-25 2023-11-30 Mobius Imaging, Llc Medical imaging system and methods
US20230390001A1 (en) 2022-06-03 2023-12-07 Mako Surgical Corp Surgical robotic system with compliance mechanism
WO2023248186A1 (en) 2022-06-22 2023-12-28 Stryker European Operations Limited Surgical sagittal blade cartridge
WO2024006413A1 (en) 2022-06-29 2024-01-04 Mobius Imaging, Llc Mount assemblies with anchors for use with navigated surgical systems
WO2024020088A1 (en) 2022-07-20 2024-01-25 Mako Surgical Corp. Robotic hand-held surgical instrument systems and methods
US20240081934A1 (en) 2022-09-09 2024-03-14 Mako Surgical Corp. Robotic surgical systems and methods for guiding a tool along a path using hybrid automated/manual control
WO2024081388A1 (en) 2022-10-13 2024-04-18 Howmedica Osteonics Corp. System and method for implantable sensor registration
WO2024129671A1 (en) 2022-12-12 2024-06-20 Mobius Imaging, Llc Stabilization assembly for a mobile medical system
WO2024137963A1 (en) 2022-12-21 2024-06-27 Mako Surgical Corp. Surgical clamp assembly for fixing a navigation tracker to a portion of bone
WO2024145417A1 (en) 2022-12-30 2024-07-04 Mobius Imaging, Llc Reference detector arrangement for computed tomography imaging system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060142657A1 (en) 2002-03-06 2006-06-29 Mako Surgical Corporation Haptic guidance system and method
WO2011128766A2 (en) 2010-04-13 2011-10-20 Picard Frederic Methods and systems for object tracking

Family Cites Families (202)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5506682A (en) 1982-02-16 1996-04-09 Sensor Adaptive Machines Inc. Robot vision using targets
JPH02503519A (ja) 1987-05-27 1990-10-25 サージカル ナビゲーション テクノロジース インコーポレーティッド(アン アフィリエイティッド カンパニー オブ ソファマー ダンネク グループ インコーポレーティッド) 外科手術を再生可能に光学的に表示するための方法及び装置
US5569578A (en) 1990-04-10 1996-10-29 Mushabac; David R. Method and apparatus for effecting change in shape of pre-existing object
US5086401A (en) * 1990-05-11 1992-02-04 International Business Machines Corporation Image-directed robotic system for precise robotic surgery including redundant consistency checking
US6675040B1 (en) 1991-01-28 2004-01-06 Sherwood Services Ag Optical object tracking system
US5662111A (en) 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
US6167295A (en) 1991-01-28 2000-12-26 Radionics, Inc. Optical and computer graphic stereotactic localizer
US6006126A (en) 1991-01-28 1999-12-21 Cosman; Eric R. System and method for stereotactic registration of image scan data
US5279309A (en) 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
DE4225112C1 (de) 1992-07-30 1993-12-09 Bodenseewerk Geraetetech Einrichtung zum Messen der Position eines Instruments relativ zu einem Behandlungsobjekt
AT399647B (de) 1992-07-31 1995-06-26 Truppe Michael Anordnung zur darstellung des inneren von körpern
US5497061A (en) 1993-03-31 1996-03-05 Hitachi, Ltd. Method of controlling robot's compliance
ZA942812B (en) 1993-04-22 1995-11-22 Pixsys Inc System for locating the relative positions of objects in three dimensional space
AU6818694A (en) 1993-04-26 1994-11-21 St. Louis University Indicating the position of a surgical probe
US5829444A (en) 1994-09-15 1998-11-03 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
EP0951874A3 (en) 1994-09-15 2000-06-14 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications using a reference unit secured to a patients head
US5765561A (en) 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
ATE320226T1 (de) 1994-10-07 2006-04-15 Univ St Louis Chirurgische navigationsanordnung einschliesslich referenz- und ortungssystemen
US5930741A (en) 1995-02-28 1999-07-27 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US5592401A (en) 1995-02-28 1997-01-07 Virtual Technologies, Inc. Accurate, rapid, reliable position sensing using multiple sensing technologies
US6246898B1 (en) 1995-03-28 2001-06-12 Sonometrics Corporation Method for carrying out a medical procedure using a three-dimensional tracking and imaging system
US5730129A (en) 1995-04-03 1998-03-24 General Electric Company Imaging of interventional devices in a non-stationary subject
US5577502A (en) 1995-04-03 1996-11-26 General Electric Company Imaging of interventional devices during medical procedures
US5638819A (en) 1995-08-29 1997-06-17 Manwaring; Kim H. Method and apparatus for guiding an instrument to a target
US6351659B1 (en) 1995-09-28 2002-02-26 Brainlab Med. Computersysteme Gmbh Neuro-navigation system
US5682886A (en) 1995-12-26 1997-11-04 Musculographics Inc Computer-assisted surgical system
US5729475A (en) 1995-12-27 1998-03-17 Romanik, Jr.; Carl J. Optical system for accurate monitoring of the position and orientation of an object
US5828770A (en) 1996-02-20 1998-10-27 Northern Digital Inc. System for determining the spatial position and angular orientation of an object
US6122538A (en) 1997-01-16 2000-09-19 Acuson Corporation Motion--Monitoring method and system for medical devices
US6026315A (en) 1997-03-27 2000-02-15 Siemens Aktiengesellschaft Method and apparatus for calibrating a navigation system in relation to image data of a magnetic resonance apparatus
US6115128A (en) 1997-09-17 2000-09-05 The Regents Of The Univerity Of California Multi-dimensional position sensor using range detectors
US6226548B1 (en) 1997-09-24 2001-05-01 Surgical Navigation Technologies, Inc. Percutaneous registration apparatus and method for use in computer-assisted surgical navigation
US5923417A (en) 1997-09-26 1999-07-13 Northern Digital Incorporated System for determining the spatial position of a target
US5953683A (en) 1997-10-09 1999-09-14 Ascension Technology Corporation Sourceless orientation sensor
US20030163142A1 (en) 1997-11-27 2003-08-28 Yoav Paltieli System and method for guiding the movements of a device to a target particularly for medical applications
US6061644A (en) 1997-12-05 2000-05-09 Northern Digital Incorporated System for determining the spatial position and orientation of a body
US6228089B1 (en) 1997-12-19 2001-05-08 Depuy International Limited Device for positioning and guiding a surgical instrument during orthopaedic interventions
DE19817039A1 (de) 1998-04-17 1999-10-21 Philips Patentverwaltung Anordnung für die bildgeführte Chirurgie
US6176837B1 (en) 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
US6273896B1 (en) 1998-04-21 2001-08-14 Neutar, Llc Removable frames for stereotactic localization
ES2228043T3 (es) 1998-05-28 2005-04-01 Orthosoft, Inc. Sistema quirurgico interactivo asistido por ordenador.
WO2000001114A1 (en) 1998-06-26 2000-01-06 Digilens Inc. Request-and-respond approach to reducing latency within a tracking system
US6266142B1 (en) 1998-09-21 2001-07-24 The Texas A&M University System Noncontact position and orientation measurement system and method
US6322567B1 (en) 1998-12-14 2001-11-27 Integrated Surgical Systems, Inc. Bone motion tracking system
WO2000039576A1 (en) * 1998-12-23 2000-07-06 Image Guided Technologies, Inc. A hybrid 3-d probe tracked by multiple sensors
US6285902B1 (en) 1999-02-10 2001-09-04 Surgical Insights, Inc. Computer assisted targeting device for use in orthopaedic surgery
US6106464A (en) 1999-02-22 2000-08-22 Vanderbilt University Apparatus and method for bone surface-based registration of physical space with tomographic images and for guiding an instrument relative to anatomical sites in the image
US6665079B1 (en) 1999-03-24 2003-12-16 Science & Engineering Associates, Inc. Method and apparatus for locating electromagnetic imaging and detection systems/devices
US6466815B1 (en) 1999-03-30 2002-10-15 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
DE19914455B4 (de) 1999-03-30 2005-07-14 Siemens Ag Verfahren zur Bestimmung der Bewegung eines Organs oder Therapiegebiets eines Patienten sowie hierfür geeignetes System
EP1171752B1 (de) 1999-04-19 2005-07-06 Leica Geosystems AG Indirekte positionsbestimmung mit hilfe eines trackers
US6491699B1 (en) 1999-04-20 2002-12-10 Surgical Navigation Technologies, Inc. Instrument guidance method and system for image guided surgery
AU766981B2 (en) 1999-04-20 2003-10-30 Ao Technology Ag Device for the percutaneous obtainment of 3D-coordinates on the surface of a human or animal organ
DE19917867B4 (de) 1999-04-20 2005-04-21 Brainlab Ag Verfahren und Vorrichtung zur Bildunterstützung bei der Behandlung von Behandlungszielen mit Integration von Röntgenerfassung und Navigationssystem
US6903721B2 (en) 1999-05-11 2005-06-07 Immersion Corporation Method and apparatus for compensating for position slip in interface devices
DE19946948A1 (de) 1999-09-30 2001-04-05 Philips Corp Intellectual Pty Verfahren und Anordnung zur Bestimmung der Position eines medizinischen Instruments
US6288785B1 (en) * 1999-10-28 2001-09-11 Northern Digital, Inc. System for determining spatial position and/or orientation of one or more objects
US6499488B1 (en) 1999-10-28 2002-12-31 Winchester Development Associates Surgical sensor
US6235038B1 (en) 1999-10-28 2001-05-22 Medtronic Surgical Navigation Technologies System for translation of electromagnetic and optical localization systems
SE515374C2 (sv) 1999-10-29 2001-07-23 Abb Flexible Automation As Förfarande och anordning för bestämning av ett objekts koordinater och orientering i ett referenskoordinatsystem
AU4305201A (en) 1999-11-29 2001-06-04 Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for transforming view orientations in image-guided surgery
US7747312B2 (en) 2000-01-04 2010-06-29 George Mason Intellectual Properties, Inc. System and method for automatic shape registration and instrument tracking
US7104996B2 (en) 2000-01-14 2006-09-12 Marctec. Llc Method of performing surgery
US20010034530A1 (en) 2000-01-27 2001-10-25 Malackowski Donald W. Surgery system
US20010025183A1 (en) 2000-02-25 2001-09-27 Ramin Shahidi Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body
US6400460B1 (en) 2000-04-10 2002-06-04 Honeywell International Inc. Multifunction optical sensor with variable detection threshold and noise suppression
US7000469B2 (en) 2000-04-21 2006-02-21 Intersense, Inc. Motion-tracking
DE10025285A1 (de) 2000-05-22 2001-12-06 Siemens Ag Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe
GB0015683D0 (en) 2000-06-28 2000-08-16 Depuy Int Ltd Apparatus for positioning a surgical instrument
US7194296B2 (en) 2000-10-31 2007-03-20 Northern Digital Inc. Flexible instrument with optical sensors
US6581000B2 (en) 2001-01-04 2003-06-17 Carnegie Mellon University Position location system and method
US6691074B1 (en) 2001-02-08 2004-02-10 Netmore Ltd. System for three dimensional positioning and tracking
US6725079B2 (en) 2001-06-20 2004-04-20 Odin Medical Technologies, Ltd. Dual pointer device and method for surgical navigation
US6584339B2 (en) 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
US6937033B2 (en) 2001-06-27 2005-08-30 Immersion Corporation Position sensor with resistive element
ITMI20011635A1 (it) 2001-07-27 2003-01-27 G D S Giorgi Dynamic Stereotax Dispositivo e procedimento di microchirurgia assistita dall'elaboratore
EP1472052A2 (en) 2002-01-31 2004-11-03 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
ATE427699T1 (de) 2002-02-07 2009-04-15 Ecole Polytech Kírperbewegungsuberwachungsgerat
US6711431B2 (en) 2002-02-13 2004-03-23 Kinamed, Inc. Non-imaging, computer assisted navigation system for hip replacement surgery
US7206626B2 (en) 2002-03-06 2007-04-17 Z-Kat, Inc. System and method for haptic sculpting of physical objects
DE10217726A1 (de) 2002-04-17 2003-11-27 Heidenhain Gmbh Dr Johannes Optische Positionsmesseinrichtung
US6757582B2 (en) 2002-05-03 2004-06-29 Carnegie Mellon University Methods and systems to control a shaping tool
US20060282873A1 (en) 2002-07-27 2006-12-14 Sony Computer Entertainment Inc. Hand-held controller having detectable elements for tracking purposes
JP2004061459A (ja) 2002-07-31 2004-02-26 Canon Inc 位置検出装置、これを備えたレンズおよび位置検出方法
US20040068178A1 (en) 2002-09-17 2004-04-08 Assaf Govari High-gradient recursive locating system
US7166114B2 (en) 2002-09-18 2007-01-23 Stryker Leibinger Gmbh & Co Kg Method and system for calibrating a surgical tool and adapter thereof
US6876926B2 (en) 2002-09-26 2005-04-05 Honeywell International Inc. Method and system for processing pulse signals within an inertial navigation system
US20040204646A1 (en) 2002-11-04 2004-10-14 V-Target Technologies Ltd. Intracorporeal-imaging head
DE10251600A1 (de) 2002-11-06 2004-05-27 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Steuern von Bewegungen bei Handhabungsgeräten
AU2003287720A1 (en) 2002-11-14 2004-06-15 General Electric Medical Systems Global Technology Company, Llc Interchangeable localizing devices for use with tracking systems
US7272467B2 (en) 2002-12-17 2007-09-18 Evolution Robotics, Inc. Systems and methods for filtering potentially unreliable visual data for visual simultaneous localization and mapping
US7505809B2 (en) 2003-01-13 2009-03-17 Mediguide Ltd. Method and system for registering a first image with a second image relative to the body of a patient
US7542791B2 (en) 2003-01-30 2009-06-02 Medtronic Navigation, Inc. Method and apparatus for preplanning a surgical procedure
US20040150560A1 (en) 2003-01-31 2004-08-05 Jun Feng Positioning system and method
US20040243148A1 (en) 2003-04-08 2004-12-02 Wasielewski Ray C. Use of micro- and miniature position sensing devices for use in TKA and THA
US6848304B2 (en) 2003-04-28 2005-02-01 Analog Devices, Inc. Six degree-of-freedom micro-machined multi-sensor
US7559931B2 (en) 2003-06-09 2009-07-14 OrthAlign, Inc. Surgical orientation system and method
US8057482B2 (en) 2003-06-09 2011-11-15 OrthAlign, Inc. Surgical orientation device and method
US20050049485A1 (en) 2003-08-27 2005-03-03 Harmon Kim R. Multiple configuration array for a surgical navigation system
US7862570B2 (en) 2003-10-03 2011-01-04 Smith & Nephew, Inc. Surgical positioners
US20050085718A1 (en) 2003-10-21 2005-04-21 Ramin Shahidi Systems and methods for intraoperative targetting
US20050085717A1 (en) 2003-10-21 2005-04-21 Ramin Shahidi Systems and methods for intraoperative targetting
US8337407B2 (en) 2003-12-30 2012-12-25 Liposonix, Inc. Articulating arm for medical procedures
DE102004005380A1 (de) 2004-02-03 2005-09-01 Isra Vision Systems Ag Verfahren zur Bestimmung der Lage eines Objekts im Raum
US20050267353A1 (en) 2004-02-04 2005-12-01 Joel Marquart Computer-assisted knee replacement apparatus and method
US7689321B2 (en) 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
US20050245820A1 (en) 2004-04-28 2005-11-03 Sarin Vineet K Method and apparatus for verifying and correcting tracking of an anatomical structure during surgery
US7702379B2 (en) 2004-08-25 2010-04-20 General Electric Company System and method for hybrid tracking in surgical navigation
DE102004047905A1 (de) 2004-09-29 2006-04-20 Augmented Solutions Gmbh System und Verfahren zur Kalibrierung optischer Sensoren, insbesondere für Augmented Reality Systeme
US7289227B2 (en) 2004-10-01 2007-10-30 Nomos Corporation System and tracker for tracking an object, and related methods
US9002432B2 (en) 2004-11-15 2015-04-07 Brainlab Ag Method and device for calibrating a medical instrument
DE102004057933A1 (de) 2004-12-01 2006-06-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und eine Vorrichtung zum Navigieren und Positionieren eines Gegenstands relativ zu einem Patienten
US20060161052A1 (en) 2004-12-08 2006-07-20 Perception Raisonnement Action En Medecine Computer assisted orthopaedic surgery system for ligament graft reconstruction
DE102004061764A1 (de) 2004-12-22 2006-07-06 Sebastian Pieck Verfahren und Vorrichtung zur räumlichen Positionsmessung
US20060190012A1 (en) 2005-01-29 2006-08-24 Aesculap Ag & Co. Kg Method and apparatus for representing an instrument relative to a bone
US20060178775A1 (en) 2005-02-04 2006-08-10 George Zhang Accelerometer to monitor movement of a tool assembly attached to a robot end effector
WO2006091494A1 (en) 2005-02-22 2006-08-31 Mako Surgical Corp. Haptic guidance system and method
IL167648A (en) 2005-03-24 2011-01-31 Elbit Systems Ltd Hybrid tracker
US10555775B2 (en) * 2005-05-16 2020-02-11 Intuitive Surgical Operations, Inc. Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery
DE102005026654A1 (de) * 2005-06-09 2006-12-14 Ife Industrielle Forschung Und Entwicklung Gmbh Vorrichtung und Verfahren zur berührungslosen Vermessung der Geometrie, Raumposition und Raumorientierung von Körpern
US7535411B2 (en) 2005-08-01 2009-05-19 Resonant Medical, Inc. System and method for detecting drifts in calibrated tracking systems
SE529780C2 (sv) 2005-08-04 2007-11-20 Hexagon Metrology Ab Mätförfarande och mätanordning för användning i mätsystem såsom koordinatmätmaskiner
US7421343B2 (en) 2005-10-27 2008-09-02 Honeywell International Inc. Systems and methods for reducing vibration-induced errors in inertial sensors
US20070225595A1 (en) * 2006-01-17 2007-09-27 Don Malackowski Hybrid navigation system for tracking the position of body tissue
EP1996108A4 (en) 2006-03-23 2017-06-21 Orthosoft, Inc. Method and system for tracking tools in computer-assisted surgery
CA2541635A1 (en) 2006-04-03 2007-10-03 Servo-Robot Inc. Hybrid sensing apparatus for adaptive robotic processes
US7556428B2 (en) 2006-04-14 2009-07-07 Xoran Technologies, Inc. Surgical navigation system including patient tracker with removable registration appendage
US8112292B2 (en) 2006-04-21 2012-02-07 Medtronic Navigation, Inc. Method and apparatus for optimizing a therapy
US20070270686A1 (en) 2006-05-03 2007-11-22 Ritter Rogers C Apparatus and methods for using inertial sensing to navigate a medical device
EP1857070A1 (de) 2006-05-18 2007-11-21 BrainLAB AG Kontaktfreie medizintechnische Registrierung mit Distanzmessung
US7868610B2 (en) 2006-06-09 2011-01-11 The Regents Of The University Of California Angular motion tracking sensor
FR2902871B1 (fr) 2006-06-23 2008-08-29 Thales Sa Unite de mesure inertielle a tenue renforcee aux accelerations
DE102006032127B4 (de) 2006-07-05 2008-04-30 Aesculap Ag & Co. Kg Kalibrierverfahren und Kalibriervorrichtung für eine chirurgische Referenzierungseinheit
DE102006034270A1 (de) 2006-07-18 2008-01-24 C. & E. Fein Gmbh Ortungssystem zur Ortung der Position eines Werkzeugs
WO2008017051A2 (en) 2006-08-02 2008-02-07 Inneroptic Technology Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
WO2008030264A1 (en) * 2006-09-08 2008-03-13 Medtronic, Inc. System for navigating a planned procedure within a body
EP1923015B1 (de) 2006-10-17 2009-07-08 BrainLAB AG Markernavigationssystem zum Erfassen und Darstellen der Lage von Markereinrichtungen
EP1913890B1 (de) 2006-10-20 2009-04-15 BrainLAB AG Markernavigationsvorrichtung insbesondere für medizinische Zwecke
US9220573B2 (en) 2007-01-02 2015-12-29 Medtronic Navigation, Inc. System and method for tracking positions of uniform marker geometries
US8141424B2 (en) 2008-09-12 2012-03-27 Invensense, Inc. Low inertia frame for detecting coriolis acceleration
US8047075B2 (en) 2007-06-21 2011-11-01 Invensense, Inc. Vertically integrated 3-axis MEMS accelerometer with electronics
US8814874B2 (en) * 2007-02-13 2014-08-26 Medtronic Navigation, Inc. Navigated cut guide for total knee reconstruction
EP1970005B1 (en) 2007-03-15 2012-10-03 Xsens Holding B.V. A system and a method for motion tracking using a calibration unit
US9289270B2 (en) 2007-04-24 2016-03-22 Medtronic, Inc. Method and apparatus for performing a navigated procedure
US8100769B2 (en) 2007-05-09 2012-01-24 Nintendo Co., Ltd. System and method for using accelerometer outputs to control an object rotating on a display
US20080319491A1 (en) * 2007-06-19 2008-12-25 Ryan Schoenefeld Patient-matched surgical component and methods of use
US8019538B2 (en) 2007-07-25 2011-09-13 Honeywell International Inc. System and method for high accuracy relative navigation
US8024119B2 (en) 2007-08-14 2011-09-20 Honeywell International Inc. Systems and methods for gyrocompass alignment using dynamically calibrated sensor data and an iterated extended kalman filter within a navigation system
US8082064B2 (en) 2007-08-24 2011-12-20 Elite Engineering Corporation Robotic arm and control system
US8315690B2 (en) 2007-10-02 2012-11-20 General Electric Company Dynamic reference method and system for interventional procedures
EP2055255A1 (de) 2007-10-31 2009-05-06 BrainLAB AG Verifizierung des Kalibrierungszustandes eines optischen Trackingsystems
CA2700475A1 (en) 2007-11-30 2009-06-04 Orthosoft Inc. Optical tracking cas system
DE102007059599B4 (de) 2007-12-11 2017-06-22 Siemens Healthcare Gmbh Vorrichtung für eine medizinische Intervention und Betriebsverfahren für eine Vorrichtung für eine medizinische Intervention
JP5561458B2 (ja) 2008-03-18 2014-07-30 国立大学法人浜松医科大学 手術支援システム
AU2009227957B2 (en) 2008-03-25 2014-07-10 Orthosoft Ulc Method and system for planning/guiding alterations to a bone
US9579161B2 (en) 2008-05-06 2017-02-28 Medtronic Navigation, Inc. Method and apparatus for tracking a patient
US9285459B2 (en) 2008-05-09 2016-03-15 Analog Devices, Inc. Method of locating an object in 3D
US20090312629A1 (en) 2008-06-13 2009-12-17 Inneroptic Technology Inc. Correction of relative tracking errors based on a fiducial
US20100030063A1 (en) 2008-07-31 2010-02-04 Medtronic, Inc. System and method for tracking an instrument
DE102008041260A1 (de) 2008-08-14 2010-02-25 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Betreiben eines medizinischen Roboters, medizinischer Roboter und medizinischer Arbeitsplatz
US9248000B2 (en) * 2008-08-15 2016-02-02 Stryker European Holdings I, Llc System for and method of visualizing an interior of body
US8848974B2 (en) * 2008-09-29 2014-09-30 Restoration Robotics, Inc. Object-tracking systems and methods
EP2455038B1 (de) * 2008-10-21 2015-04-01 Brainlab AG Integration von chirurgischem Instrument und Anzeigevorrichtung zur Unterstützung der bildgeführten Chirurgie
US20100130853A1 (en) 2008-11-25 2010-05-27 General Electric Company System for tracking object
JP2010145274A (ja) 2008-12-19 2010-07-01 Panasonic Corp 慣性センサ
KR100996826B1 (ko) 2008-12-31 2010-11-26 주식회사 사이버메드 수술용 항법 장치용 도구의 교정 방법
EP2381877B1 (en) 2009-01-29 2018-02-28 Imactis Method and device for navigation of a surgical tool
US8690776B2 (en) * 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery
JP2010216880A (ja) 2009-03-13 2010-09-30 Omron Corp 変位センサ
WO2010111090A1 (en) 2009-03-26 2010-09-30 Intuitive Surgical Operations, Inc. System for providing visual guidance for steering a tip of an endoscopic device towards one or more landmarks and assisting an operator in endoscopic navigation
FR2944203A1 (fr) 2009-04-08 2010-10-15 Gen Electric Systeme et procede pour determiner la position d'un instrument medical
JP4957753B2 (ja) 2009-06-15 2012-06-20 セイコーエプソン株式会社 ロボット、搬送装置、及び慣性センサーを用いた制御方法
CN102460205A (zh) 2009-06-23 2012-05-16 皇家飞利浦电子股份有限公司 位置确定系统
DE102009030731A1 (de) * 2009-06-26 2010-12-30 Fiagon Gmbh Verfahren zum Erzeugen von Positionsdaten eines Instrumentes
JP6200152B2 (ja) 2009-06-29 2017-09-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療処置におけるトラッキング方法及び装置
WO2011001300A1 (en) 2009-06-29 2011-01-06 Koninklijke Philips Electronics, N.V. Method and system for position determination
US20110045736A1 (en) 2009-08-20 2011-02-24 Charles Randy Wooten Effect Generating Device in Response to User Actions
US8494614B2 (en) 2009-08-31 2013-07-23 Regents Of The University Of Minnesota Combination localization system
US8494613B2 (en) 2009-08-31 2013-07-23 Medtronic, Inc. Combination localization system
US20110105895A1 (en) 2009-10-01 2011-05-05 Giora Kornblau Guided surgery
US8743368B2 (en) 2009-11-12 2014-06-03 General Electric Company Optical sensor system and method of sensing
US9675302B2 (en) * 2009-12-31 2017-06-13 Mediguide Ltd. Prolapse detection and tool dislodgement detection
US8615127B2 (en) 2010-01-15 2013-12-24 Vanderbilt University System and method for point-based rigid registration with anisotropic weighting
US20120319859A1 (en) 2010-01-20 2012-12-20 Creative Team Instruments Ltd. Orientation detector for use with a hand-held surgical or dental tool
US9901405B2 (en) 2010-03-02 2018-02-27 Orthosoft Inc. MEMS-based method and system for tracking a femoral frame of reference
US20110257909A1 (en) 2010-04-14 2011-10-20 Moog Inc. Inertially referenced sensor system and method
EP2561239A4 (en) 2010-04-22 2014-08-06 Blue Belt Tech Inc TOOL AND SURGICAL HANDLE FREE HAND CONTROLLED
US9706948B2 (en) 2010-05-06 2017-07-18 Sachin Bhandari Inertial sensor based surgical navigation system for knee replacement surgery
US9226799B2 (en) 2010-06-23 2016-01-05 Mako Surgical Corp. Inertially tracked objects
US9597156B2 (en) 2010-07-30 2017-03-21 Orthosoft Inc. Bone tracking with a gyroscope sensor in computer-assisted surgery
US20120046536A1 (en) * 2010-08-20 2012-02-23 Manhattan Technologies, Llc Surgical Instrument Navigation Systems and Methods
US9913693B2 (en) 2010-10-29 2018-03-13 Medtronic, Inc. Error correction techniques in surgical navigation
CN103402450A (zh) * 2010-12-17 2013-11-20 阿韦尼尔医药公司 用于在外科手术中对准假体的方法及系统
CN202146362U (zh) * 2010-12-30 2012-02-22 上海交通大学医学院附属第九人民医院 一种基于光学导航七自由度颅颌面手术辅助机械臂
ES2562704T3 (es) 2010-12-30 2016-03-07 Ar Innovation Ag Método para configurar un sensor de movimiento, así como un sensor de movimiento configurable y un sistema para configurar dicho sensor de movimiento
US9381085B2 (en) 2011-06-23 2016-07-05 Stryker Corporation Prosthetic implant and method of implantation
WO2013033566A1 (en) 2011-09-02 2013-03-07 Stryker Corporation Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing
EP2863827B1 (en) 2012-06-21 2022-11-16 Globus Medical, Inc. Surgical robot platform
CN107198567B (zh) 2012-08-03 2021-02-09 史赛克公司 用于机器人外科手术的系统和方法
US9008757B2 (en) * 2012-09-26 2015-04-14 Stryker Corporation Navigation system including optical and non-optical sensors
KR102430277B1 (ko) 2015-11-27 2022-08-09 큐렉소 주식회사 정형외과 수술용 마커 위치 확인 시스템 및 그 확인 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060142657A1 (en) 2002-03-06 2006-06-29 Mako Surgical Corporation Haptic guidance system and method
WO2011128766A2 (en) 2010-04-13 2011-10-20 Picard Frederic Methods and systems for object tracking

Also Published As

Publication number Publication date
KR20190045412A (ko) 2019-05-02
EP2900164B1 (en) 2021-04-14
WO2014052428A1 (en) 2014-04-03
US9271804B2 (en) 2016-03-01
US9687307B2 (en) 2017-06-27
KR102310664B1 (ko) 2021-10-12
US20170252111A1 (en) 2017-09-07
AU2013323646B2 (en) 2017-09-14
US20200197105A1 (en) 2020-06-25
CN104684502A (zh) 2015-06-03
CN109171964A (zh) 2019-01-11
CN104684502B (zh) 2018-10-19
CA2883508A1 (en) 2014-04-03
US20150164609A1 (en) 2015-06-18
AU2013323646A1 (en) 2015-03-12
US9008757B2 (en) 2015-04-14
EP2900164A1 (en) 2015-08-05
US10575906B2 (en) 2020-03-03
CN113545854A (zh) 2021-10-26
US11529198B2 (en) 2022-12-20
JP2018183597A (ja) 2018-11-22
JP6636566B2 (ja) 2020-01-29
US20140088410A1 (en) 2014-03-27
AU2019200725B2 (en) 2020-02-13
JP2015534480A (ja) 2015-12-03
AU2019200725A1 (en) 2019-03-21
CN109171964B (zh) 2021-08-06
JP6370789B2 (ja) 2018-08-08
KR20210018962A (ko) 2021-02-18
US20230056674A1 (en) 2023-02-23
JP2018198931A (ja) 2018-12-20
JP6684308B2 (ja) 2020-04-22
AU2017264974B2 (en) 2019-02-21
EP3884900A1 (en) 2021-09-29
AU2017264974A1 (en) 2017-12-07
US20160120610A1 (en) 2016-05-05
KR102216509B1 (ko) 2021-02-18
KR20150064015A (ko) 2015-06-10

Similar Documents

Publication Publication Date Title
KR101974102B1 (ko) 광학 및 비광학 센서를 포함하는 네비게이션 시스템
US11918305B2 (en) Systems and methods for establishing virtual constraint boundaries
KR20180099702A (ko) 가상 객체에 의해 정의된 타깃 부위에서 환자에게 수술을 수행하기 위한 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant