KR20230015508A - 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 - Google Patents
수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 Download PDFInfo
- Publication number
- KR20230015508A KR20230015508A KR1020237001704A KR20237001704A KR20230015508A KR 20230015508 A KR20230015508 A KR 20230015508A KR 1020237001704 A KR1020237001704 A KR 1020237001704A KR 20237001704 A KR20237001704 A KR 20237001704A KR 20230015508 A KR20230015508 A KR 20230015508A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual
- manipulator
- collision
- movement
- response
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000001356 surgical procedure Methods 0.000 title abstract description 47
- 230000033001 locomotion Effects 0.000 claims abstract description 113
- 230000004044 response Effects 0.000 claims description 55
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 abstract description 19
- 230000003287 optical effect Effects 0.000 description 45
- 210000000988 bone and bone Anatomy 0.000 description 44
- 210000002303 tibia Anatomy 0.000 description 21
- 210000000689 upper leg Anatomy 0.000 description 15
- 210000003484 anatomy Anatomy 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 230000002452 interceptive effect Effects 0.000 description 8
- 239000000463 material Substances 0.000 description 7
- 230000002441 reversible effect Effects 0.000 description 6
- 210000001519 tissue Anatomy 0.000 description 6
- QQAHEGDXEXIQPR-UHFFFAOYSA-N 2-(ethylamino)-1-phenylpentan-1-one Chemical compound CCCC(NCC)C(=O)C1=CC=CC=C1 QQAHEGDXEXIQPR-UHFFFAOYSA-N 0.000 description 5
- 102100032262 E2F-associated phosphoprotein Human genes 0.000 description 5
- 101710155837 E2F-associated phosphoprotein Proteins 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000000470 constituent Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000007943 implant Substances 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 210000003414 extremity Anatomy 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000001444 catalytic combustion detection Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000035515 penetration Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 206010002091 Anaesthesia Diseases 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000037005 anaesthesia Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000399 orthopedic effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Robotics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
- Surgical Instruments (AREA)
- Processing Or Creating Images (AREA)
Abstract
수술절차 중 추적 방해를 감소기키 위한 내비게이션 시스템 및 방법. 가상 경계 발생기는 추적 디바이스 및 로컬라이저와 관련된 가상 경계를 발생한다. 충돌 검출기는 가상 대상과 가상 경계 간의 충돌을 검출하기 위해 가상 경계에 대한 가상 대상의 움직임을 평가한다. 피드백 발생기는 추적 디바이스와 로컬라이저 간의 추적 방해를 감소시키기 위해 충돌 검출에 응답한다.
Description
관련 출원에 대한 상호참조
이 출원은 2015년 2월 25일에 출원된 미국 가출원 62/120,585의 우선권과 혜택을 주장하며, 그 전체 내용은 본원에 참고로 포함된다.
본 개시물은 일반적으로 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법에 관한 것이다.
내비게이션 시스템은 사용자가 대상을 찾아내는데 도움을 준다. 예를 들어, 내비게이션 시스템은 산업, 항공우주 및 의료 응용에서 사용된다. 의료 분야에서, 내비게이션 시스템은 외과의사가 환자의 아나토미에 대하여 수술 도구를 배치하는데 도움을 준다. 내비게이션 시스템이 사용되는 수술은 신경외과 수술 및 정형외과 수술을 포함한다. 일반적으로, 도구와 아나토미는 디스플레이에 보여진 이들의 상대적 이동과 함께 추적된다.
내비게이션 시스템은 대상의 위치 및/또는 방위를 추적하기 위해, 광 신호, 음파, 자기장, 라디오 주파수 신호, 등을 사용할 수 있다. 흔히 내비게이션 시스템은 추적되는 대상에 고착된 추적 디바이스를 포함한다. 로컬라이저는 추적 디바이스의 위치를 결정하고 궁극적으로는 대상의 위치 및/또는 방위를 결정하기 위해 추적 디바이스 상의 추적 요소와 공조한다. 내비게이션 시스템은 추적 디바이스를 통해 대상의 움직임을 모니터링한다.
많은 내비게이션 시스템은 추적 요소와 추적 요소로부터의 추적 신호를 수신하는 로컬라이저의 센서 사이에 방해받지 않은 시선에 의존한다. 이들 내비게이션 시스템은 또한 로컬라이저의 시야 내에 위치하는 추적 요소에 의존한다. 결국, 추적 요소와 센서 사이의 시선을 방해할 가능성을 줄이고 로컬라이저의 시야 내에 추적 요소를 유지하려는 노력이 행해졌다. 예를 들어, 일부 내비게이션 시스템에서, 내비게이션 시스템의 초기 셋업 동안, 디스플레이는 추적 요소가 시선에 대한 방해 없이 시야 내에 위치되도록 추적 디바이스의 초기 배치를 안내하기 위해 로컬라이저의 시야를 그래픽으로 나타낸다. 그러나, 이러한 내비게이션 시스템은, 예를 들어, 초기 셋업 후 및 환자의 치료 동안, 시선 내로 대상의 이동의 결과로서 수술절차 동안 일어날 수 있는 시선에 대한 방해를 방지할 수 없거나, 혹은, 추적 요소가 시야 밖으로 이동하는 것을 방지할 수 없다.
시선이 방해받을 때, 또는 추적 요소가 시야 밖에 있을 때, 추적 요소로부터 전송되는 추적 신호는 로컬라이저에 의해 수신되지 않는다. 결과적으로, 오류가 발생할 수 있다. 통상적으로, 이 상황에서, 내비게이션은 계속되지 못하고, 추적 신호가 다시 수신되거나 내비게이션 시스템이 리셋될 때까지 오류 메시지가 사용자에게 전달된다. 이것은 수술절차에 지연을 야기할 수 있다. 예를 들어, 환자의 조직에 대하여 커팅 도구를 자율적으로 위치시키기 위해 내비게이션 데이터에 의존하는 매니플레이터는 이들 오류가 일어난다면 동작을 중단해야 한다. 이것은, 시선을 회복하는데 어려움이 생긴다면 수술절차 시간이 현저히 증가할 수도 있을 것이다. 이것은 감염 위험 및 마취의 장기간 사용과 관련된 위험을 줄이기 위해 감소된 수술 시간을 요구하는 현대 의료행위의 요망에 반하는 것이다.
따라서, 수술절차가 방해받지 않도록 추적 디바이스와 추적 디바이스로부터의 신호를 수신하는 로컬라이저 사이의 추적 방해를 감소시키는 내비게이션 시스템 및 방법에 대한 필요성이 이 분야에 존재한다.
일 실시예에서, 대상에 의해 야기된 추적 방해를 감소시키기 위한 내비게이션 시스템은 제공된다. 내비게이션 시스템은 시야를 갖는 로컬라이저를 포함한다. 추적 디바이스는 로칼 라이저와의 시선 관계를 확립하기 위해 시야 내에 놓여진다. 가상 경계 발생기는 추적 디바이스와 로컬라이저 간의 시선 관계에 기초하여 가상 시선 경계를 발생한다. 가상 경계 발생기는 또한 수술절차 중에 추적 디바이스와 로컬라이저 사이의 상대적 이동을 감안하기 위해 가상 시선 경계를 업데이트한다. 대상은 가상 대상로서 가상 공간에서 정의된다. 충돌 검출기는 대상이 추적 디바이스와 로컬라이저 간에 시선을 방해하는 것을 방지하는 검출에 대한 응답을 가능하게 하기 위해 가상 대상과 가상 시선 경계 사이의 충돌을 검출하기 위해 가상 시선 경계에 대한 가상 대상의 움직임을 평가한다.
또한, 추적 디바이스와 내비게이션 시스템의 로컬라이저 사이의 추적 방해를 감소시키기 위한 방법이 제공된다. 방법은 로컬라이저의 시야 내에 추적 디바이스를 검출하는 단계를 포함한다. 가상 시선 경계는 추적 디바이스와 로컬라이저 간의 시선 관계에 기초하여 발생된다. 가상 시선 경계는 추적 디바이스와 로컬라이저 간의 상대적 이동을 고려하여 업데이트된다. 가상 대상은 로컬라이저의 시야 내의 대상에 관련된다. 대상이 추적 디바이스와 로컬라이저 사이의 시선을 방해하는 것을 방지하는 검출에 대한 응답을 가능하게 하도록 가상 대상과 가상 시선 경계와의 상대적 이동의 평가에 기초하여, 가상 대상과 가상 시선 경계 간에 충돌이 검출된다.
추적 방해를 감소시키기 위한 또 다른 내비게이션 시스템이 제공된다. 시스템은 시야를 갖는 로컬라이저를 포함한다. 추적 디바이스는 로컬라이저가 추적 디바이스로부터 신호를 수신할 수 있도록 시야 내에 놓여진다. 가상 대상은 추적 디바이스와 연관된다. 가상 경계 발생기는 로컬라이저의 시야에 기초하여 가상 시야 경계를 발생한다. 충돌 검출기는 가상 대상과 가상 시야 경계 간의 충돌을 검출하고 추적 디바이스가 로컬라이저의 시야 밖으로 이동하는 것을 방지하는 충돌에 대한 응답을 가능하게 하기 위해 가상 시야 경계에 대한 가상 대상의 이동을 평가한다.
추적 디바이스와 내비게이션 시스템의 로컬라이저 간의 추적 방해를 감소시키기 위한 또 다른 방법이 또한 제공된다. 방법은 로컬라이저의 시야 내에 추적 디바이스를 검출하는 단계를 포함한다. 가상 시야 경계는 로컬라이저의 시야에 기초하여 발생된다. 가상 대상은 추적 디바이스와 연관된다. 가상 대상과 가상 시야 경계 간의 충돌을 검출하고 추적 디바이스가 로컬라이저의 시야 밖으로 이동하는 것을 방지하는 충돌에 대한 응답을 가능하게 하기 위해 가상 시야 경계에 대한 가상 대상의 이동이 추적된다.
이들 내비게이션 시스템 및 방법의 한 이점은 수술절차에 대한 방해를 피할 수 있도록 추적 디바이스와 추적 디바이스로부터 신호를 수신하는 로컬라이저 사이의 추적 방해를 감소시키는 것이다. 이러한 방해는 추적 디바이스와 로컬라이저 사이의 시선에 간섭하는 대상에 의해서, 또는 로컬라이저의 시야 밖으로 이동하는 추적 디바이스로 인해 야기될 수 있다.
본 발명의 이점은 첨부된 도면과 관련하여 고찰될 때 다음의 상세한 설명을 참조함으로써 더 잘 이해될 수 있기 때문에 용이하게 알게 될 것이다.
도 1은 작업대상으로부터 구성물질을 제거하기 위해 사용되는 구성물질 제거 시스템의 사시도이다.
도 2는 구성물질 제거 시스템의 개략도이다.
도 3은 구성물질 제거 시스템에서 사용되는 좌표계의 개략도이다.
도 4는 조인트 모터 제어기 및 센서의 개략도이다.
도 5는 로컬라이저 좌표계에서 가상 대상을 도시한다.
도 6은 로컬라이저의 시야 및 시야 내에 위치된 추적기의 평면도 및 측면도이다.
도 7은 추적기와 로컬라이저 간에 가상 시선 경계를 도시한다.
도 8은 가상 대상과 가상 시선 경계 간에 충돌을 도시하는 디스플레이의 스크린 샷이다.
도 9는 시선 방해를 피하기 위해 사용자에게의 지시를 도시하는 디스플레이의 스크린 샷이다.
도 10은 가상 시선 경계를 가로지르는 가상 대상 및 충돌을 피하거나 반발시키기 위해 발생된 연관된 피드백 힘을 도시한다.
도 11은 시야 밖으로 이동하는 추적기를 피하기 위해 사용자에게의 지시를 도시하는 디스플레이의 스크린 샷이다.
도 12는 한 방법에서 수행되는 단계들의 흐름도이다.
도 1은 작업대상으로부터 구성물질을 제거하기 위해 사용되는 구성물질 제거 시스템의 사시도이다.
도 2는 구성물질 제거 시스템의 개략도이다.
도 3은 구성물질 제거 시스템에서 사용되는 좌표계의 개략도이다.
도 4는 조인트 모터 제어기 및 센서의 개략도이다.
도 5는 로컬라이저 좌표계에서 가상 대상을 도시한다.
도 6은 로컬라이저의 시야 및 시야 내에 위치된 추적기의 평면도 및 측면도이다.
도 7은 추적기와 로컬라이저 간에 가상 시선 경계를 도시한다.
도 8은 가상 대상과 가상 시선 경계 간에 충돌을 도시하는 디스플레이의 스크린 샷이다.
도 9는 시선 방해를 피하기 위해 사용자에게의 지시를 도시하는 디스플레이의 스크린 샷이다.
도 10은 가상 시선 경계를 가로지르는 가상 대상 및 충돌을 피하거나 반발시키기 위해 발생된 연관된 피드백 힘을 도시한다.
도 11은 시야 밖으로 이동하는 추적기를 피하기 위해 사용자에게의 지시를 도시하는 디스플레이의 스크린 샷이다.
도 12는 한 방법에서 수행되는 단계들의 흐름도이다.
도 1을 참조하면, 작업대상으로부터 구성물질을 제거하기 위한 구성물질 제거 시스템(10)이 도시되었다. 구성물질 제거 시스템(10)은 의료 시설의 수술실과 같은 수술 세팅에서 도시되었다. 도시된 실시예에서, 구성물질 제거 시스템(10)은 기계 스테이션(12) 및 내비게이션 시스템(20)을 포함한다. 내비게이션 시스템(20)은 수술실 내의 다양한 대상의 움직임을 추적하도록 셋업된다. 이러한 대상은, 예를 들어, 수술 도구(22), 환자의 대퇴골(F), 및 환자의 경골(T)을 포함한다. 내비게이션 시스템(20)은 외과의사에게 이들의 상대적 위치 및 방위를 디스플레이할 목적으로, 그리고, 경우에 따라서는, 대퇴골(F) 및 경골(T)과 관련된 가상 커팅 경계(도시되지 않음)에 대한 수술 도구(22)의 이동을 제어 또는 제약할 목적으로 이들 대상을 추적한다.
내비게이션 시스템(20)은 내비게이션 컴퓨터(26)를 수용하는 컴퓨터 카트 조립체(24)를 포함한다. 내비게이션 인터페이스는 내비게이션 컴퓨터(26)와 동작적으로 통신한다. 내비게이션 인터페이스는 무균 필드 밖에 위치되도록 적응된 제1 디스플레이(28), 및 무균 필드 내부에 위치되도록 적응된 제2 디스플레이(29)를 포함한다. 디스플레이(28, 29)는 컴퓨터 카트 조립체(24)에 조정가능하게 장착된다. 키보드 및 마우스와 같은 제1 및 제2 입력 디바이스(30, 32)는 내비게이션 컴퓨터(26)에 정보를 입력하거나 아니면 내비게이션 컴퓨터(26)의 어떤 측면들을 선택/제어하기 위해 사용될 수 있다. 터치 스크린(미도시) 또는 음성 활성화를 포함한 다른 입력 디바이스가 고려된다.
로컬라이저(34)는 내비게이션 컴퓨터(26)와 통신한다. 도시된 실시예에서, 로컬라이저(34)는 광학 로컬라이저이며, 카메라 유닛(36)을 포함한다. 카메라 유닛(36)은 하나 이상의 광학 위치 센서(40)를 수용하는 외부 케이싱(38)을 갖는다. 일부 실시예에서, 적어도 2개, 바람직하게는 3개 또는 4개(3개가 도시됨)의 광학 센서(40)가 채용된다. 광학 센서(40)는 별개의 전하 결합 소자(CCD)일 수 있다. 일 실시예에서 3개의 1차원 CCD가 사용된다. 다른 실시예에서, 각각이 별도의 한 CCD, 또는 2개 이상의 CCD를 갖는 별도의 카메라 유닛이 수술실 주위에 배열될 수도 있음을 이해해야 한다. CCD는 적외선(IR) 신호를 검출한다.
카메라 유닛(36)은 이상적으로는 방해가 없는 아래 설명된 추적기의 시야에 광학 센서(40)를 위치시키기 위해 조정가능 암에 장착된다. 일부 실시예에서, 카메라 유닛(36)은 회전 조인트에 관하여 회전함으로써 적어도 하나의 자유도에서 조정가능하다. 다른 실시예에서, 카메라 유닛(36)은 약 2 이상의 자유도에 관하여 조정가능하다.
카메라 유닛(36)은 광학 센서(40)로부터 신호를 수신하기 위해 광학 센서(40)와 통신하는 카메라 제어기(42)를 포함한다. 카메라 제어기(42)는 유선 또는 무선 연결(도시 생략)을 통해 내비게이션 컴퓨터(26)와 통신한다. 이러한 한 연결은 고속 통신 및 등시성 실시간 데이터 전송을 위한 직렬 버스 인터페이스 표준인 IEEE 1394 인터페이스일 수 있다. 연결은 회사에 특정한 프로토콜을 사용할 수도 있다. 다른 실시예에서, 광학 센서(40)는 내비게이션 컴퓨터(26)와 직접 통신한다.
위치 및 방위 신호 및/또는 데이터는 대상을 추적하기 위해 내비게이션 컴퓨터(26)에 전송된다. 컴퓨터 카트 조립체(24), 디스플레이(28), 및 카메라 유닛(36)은 "Suregery System"이라는 명칭으로 2010년 5월 25일 발행된, 본원에 참고로 포함되는 Malackowski 등의 미국 특허 제7,725,162호에 기재된 것과 유사할 수 있다.
내비게이션 컴퓨터(26)는 개인용 컴퓨터 또는 랩탑 컴퓨터일 수 있다. 내비게이션 컴퓨터(26)는 디스플레이(28), 중앙 처리 유닛(CPU) 및/또는 다른 프로세서, 메모리(도시되지 않음), 및 저장장치(도시되지 않음)를 갖는다. 내비게이션 컴퓨터(26)에는 이하에서 설명되는 바와 같이 소프트웨어가 로딩된다. 소프트웨어는 카메라 유닛(36)으로부터 수신된 신호를 추적되는 대상의 위치 및 방위를 나타내는 데이터로 변환한다.
내비게이션 시스템(20)은 본원에서 추적기라 지칭되는 복수의 추적 디바이스(44, 46, 48)와 동작할 수 있다. 도시된 실시예에서, 하나의 추적기(44)는 환자의 대퇴골(F)에 견고하게 고착되고 또 다른 추적기(46)는 환자의 경골(T)에 견고하게 고착된다. 추적기(44, 46)는 뼈의 섹션에 견고하게 고착된다. 추적기(44, 46)는 참고로 본원에 포함되는 미국 특허 제7,725,162호에 개시된 방식으로 대퇴골(F) 및 경골(T)에 고착될 수 있다. 추적기(44, 46)는 또한 참고로 본원에 포함되는 2014년 1월 16일에 출원된 "Navigation Systems and Methods for Indicating and Reducing Line-of-Sight Errors" 명칭의 미국 특허 출원 제14/156,856호에 개시된 것들과 같이 장착될 수도 있을 것이다. 추가의 실시예에서, 추적기(미도시)는 종지뼈의 위치 및 방위를 추적하기 위해 종지뼈에 부착된다. 또 다른 실시예에서, 추적기(44, 46)는 다른 조직 유형 또는 아나토미의 부분에 장착될 수도 있을 것이다.
도구 추적기(48)는 수술 도구(22)에 견고하게 고착된다. 도구 추적기(48)는 제조 중에 수술 도구(22)에 통합될 수도 있고, 또는 수술절차를 준비하기 위해 수술 도구(22)에 별도로 장착될 수 있다. 도구 추적기(48)에 의해 추적되고 있는 수술 도구(22)의 작업단부는 회전하는 버르(bur), 전기 애블레이트(ablation) 디바이스, 등일 수 있다.
추적기(44, 46, 48)는 내부 배터리로 전력이 공급되는 배터리일 수 있고, 혹은 카메라 유닛(36)과 마찬가지로 바람직하게 외부 전력을 수신하는 내비게이션 컴퓨터(26)를 통해 전력을 수신하는 리드를 가질 수 있다.
도시된 실시예에서, 수술 도구(22)는 기계 스테이션(12)의 매니플레이터(56)에 고착된다. 이러한 배열은 개시 내용이 본원에 참고로 포함되는, "Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes" 명칭의 미국 특허 제9,119,655호에 개시되어 있다.
도 2를 참조하면, 로컬라이저(34)의 광학 센서(40)는 추적기(44, 46, 48)로부터 광 신호를 수신한다. 예시된 실시예에서, 추적기(44, 46, 48)는 액티브 추적기이다. 이 실시예에서, 각각의 추적기(44, 46, 48)는 광 신호를 광학 센서(40)에 전송하기 위한 적어도 3개의 액티브 추적 요소 또는 마커를 갖는다. 액티브 마커는, 예를 들어, 적외선 광과 같은 광을 전송하는 발광 다이오드 또는 LED(50)일 수 있다. 광학 센서(40)는 바람직하게는 100 Hz 이상, 보다 바람직하게는 300 Hz 이상, 가장 바람직하게는 500 Hz 이상의 샘플링 레이트를 갖는다. 일부 실시예에서, 광학 센서(40)는 8000 Hz의 샘플링 레이트를 갖는다. 샘플링 레이트는 광학 센서(40)가 순차적으로 점화된 LED(50)로부터 광 신호를 수신하는 레이트이다. 일부 실시예에서, LED(50)로부터의 광 신호는 각 추적기(44, 46, 48)마다 상이한 레이트로 점화된다.
LED(50) 각각은 내비게이션 컴퓨터(26)에/로부터 데이터를 전송/수신하는 연관된 추적기(44, 46, 48)의 하우징 내에 위치된 추적기 제어기(도시되지 않음)에 연결된다. 일 실시예에서, 추적기 제어기는 내비게이션 컴퓨터(26)와의 유선 연결을 통해 수 메가바이트/초 정도로 데이터를 전송한다. 다른 실시예에서, 무선 연결이 사용될 수도 있다. 이들 실시예에서, 내비게이션 컴퓨터(26)는 추적기 제어기로부터 데이터를 수신하기 위한 트랜시버(도시되지 않음)를 갖는다.
다른 실시예에서, 추적기(44, 46, 48)는 카메라 유닛(36)으로부터 방출된 광을 반사하는 리플렉터와 같은 패시브 마커(도시하지 않음)를 가질 수 있다. 반사된 광은 이어 광학 센서(40)에 의해 수신된다. 액티브 및 패시브 배열은 당업계에 잘 알려져 있다.
일부 실시예에서, 추적기(44, 46, 48)는 참고로 본원에 포함되는, "Navigation System Including Optical and Non-Optical Sensors" 명칭으로 2013년 9월 24일자로 출원된 미국 특허 제9,008,757호에 개시된 추적기와 같은, 자이로스코프 센서 및 가속도계를 포함한다.
내비게이션 컴퓨터(26)는 내비게이션 프로세서(52)를 포함한다. 내비게이션 프로세서(52)는 내비게이션 컴퓨터(26)의 동작을 제어하기 위해 하나 이상의 프로세서를 포함할 수 있음을 알아야 한다. 프로세서는 임의의 유형의 마이크로프로세서 또는 멀티-프로세서 시스템일 수 있다. 용어 프로세서는 임의의 실시예 범위를 단일 프로세서로 제한하려는 것은 아니다.
카메라 유닛(36)은 추적기(44, 46, 48)의 LED(50)로부터 광학 신호를 수신하고, 로컬라이저(34)에 대한 추적기(44, 46, 48)의 LED(50)의 위치에 관계된 신호를 프로세서(52)에 출력한다. 내비게이션 프로세서(52)는 수신된 광학 신호(및 일부 실시예에선 비-광학 신호)에 기초하여, 로컬라이저(34)에 대한 추적기(44, 46, 48)의 상대적 위치 및 방위를 나타내는 데이터를 발생한다. 한 버전에서, 내비게이션 프로세서(52)는 위치 데이터를 결정하기 위해 잘 알려진 삼각측량 방법을 사용한다.
수술절차의 시작 전에, 추가의 데이터가 내비게이션 프로세서(52)에 로딩된다. 추적기(44, 46, 48)의 위치 및 방위와 이전에 로딩된 데이터에 기초하여, 내비게이션 프로세서(52)는 수술 도구(22)의 작업단부의 위치(예를 들어, 수술용 버르의 중심) 및 작업단부가 가해질 조직에 대한 수술 도구(22)의 방위를 결정한다. 일부 실시예에서, 내비게이션 프로세서(52)는 이들 데이터를 매니플레이터 제어기(54)에 보낸다. 이어서, 매니플레이터 제어기(54)는 개시 내용이 참고로 본원에 포함되는, "Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes" 명칭의 미국 특허 제9,119,655호에 개시된 바와 같이 매니플레이터(56)를 제어하기 위해 데이터를 사용할 수 있다.
일 실시예에서, 매니플레이터(56)는, 수술 도구(22)에 의해 제거될 대퇴골(F) 및 경골(T)의 구성물질을 정의하는 것인, 외과의사(미도시)에 의해 설정된 수술전에 정의된 가상 경계 내에 머물러 있도록 제어된다. 보다 상세하게는, 대퇴골(F) 및 경골(T) 각각은 수술 도구(22)의 작업단부에 의해 제거될 구성물질의 목표 볼륨을 갖는다. 목표 볼륨은 하나 이상의 가상 커팅 경계에 의해 정의된다. 가상 커팅 경계는 수술절차 후에 남아 있어야 하는 뼈의 표면을 정의한다. 내비게이션 시스템(20)은 개시내용이 참고로 본원에 포함되는, "Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes" 명칭의 미국 특허 제9,119,655호에 개시된 바와 같이, 작업단부, 예를 들어, 수술용 버르가 구성물질의 목표 볼륨만을 제거하고 가상 커팅 경계를 넘어서 확장하지 않음을 보장하기 위해 수술 도구(22)를 추적 및 제어한다.
가상 커팅 경계는 대퇴골(F) 및 경골(T)의 가상 모델 내에서 정의될 수 있고, 메시 표면, 구조적 입체 기하학(CSG), 복셀로서, 또는 이외 다른 경계 표현 기술을 사용하여 표현될 수 있다. 수술 도구(22)는 임플란트를 받기 위해 대퇴골(F) 및 경골(T)로부터 구성물질을 잘라내야 한다. 외과용 임플란트는 개시내용이 참고로 본원에 포함되는, "Prosthetic Implant and Method of Implantation" 명칭의 미국 특허 출원 제13/530,927호에 개시된 바와 같이 단구획, 양구획, 또는 인공 무릎 임플란트(total knee implant)를 포함할 수 있다.
내비게이션 프로세서(52)는 또한 조직에 대한 작업단부의 상대적 위치를 나타내는 이미지 신호를 발생한다. 이들 이미지 신호는 디스플레이(28, 29)에 인가된다. 이들 신호에 기초하여, 디스플레이(28, 29)는 외과의사 및 작업자가 수술 부위에 대한 작업단부의 상대적 위치를 볼 수 있게 하는 이미지를 발생한다. 디스플레이(28, 29)는, 전술한 바와 같이, 터치 스크린 또는 지령의 입력을 허용하는 다른 입력/출력 디바이스를 포함할 수 있다.
도 3을 참조하면, 대상들의 추적은 일반적으로 로컬라이저 좌표계(LCLZ)를 참조하여 수행된다. 로컬라이저 좌표계는 원점과 방위(x, y 및 z 축 세트)를 갖는다. 수술절차 동안에, 한 가지 목표는 로컬라이저 좌표계(LCLZ)를 알려진 위치에 유지하는 것이다. 로컬라이저(34)에 장착된 가속도계(도시되지 않음)는, 로컬라이저(34)가 수술 요원에 의해 부주의하게 부딪칠 때 일어날 수도 있는 바와 같이, 로컬라이저 좌표계(LCLZ)의 갑작스러운 또는 예상치 못한 이동을 추적하기 위해 사용될 수 있다.
각각의 추적기(44, 46, 48) 및 추적되는 대상은 또한 로컬라이저 좌표계(LCLZ)와는 별도의 자체 좌표계를 갖는다. 자체 좌표계를 갖는 내비게이션 시스템(20)의 구성성분은 뼈 추적기(44, 46) 및 도구 추적기(48)이다. 이들 좌표계는 각각 뼈 추적기 좌표계(BTRK1, BTRK2), 및 도구 추적기 좌표계(TLTR)로서 표현된다.
내비게이션 시스템(20)은 뼈에 견고하게 고착된 뼈 추적기(44, 46)의 위치를 모니터링함으로써 환자의 대퇴골(F) 및 경골(T)의 위치를 모니터링한다. 대퇴골 좌표계는 FBONE이고 경골 좌표계는 TBONE이며, 이들은 뼈 추적기(44, 46)가 견고하게 고착된 뼈의 좌표계이다.
수술절차의 시작 전에, 대퇴골(F) 및 경골(T)(또는 다른 실시예에서는 다른 조직)의 수술전의 이미지가 발생된다. 이들 이미지는 환자의 아나토미의 MRI 스캔, 방사능 스캔, 또는 컴퓨터 단층촬영(CT) 스캔을 기반으로 할 수 있다. 이들 이미지는 당업계의 공지된 방법을 사용하여 대퇴골 좌표계(FBONE) 및 경골 좌표계(TBONE)에 매핑된다. 이들 이미지는 대퇴골 좌표계(FBONE) 및 경골 좌표계(TBONE)에 고정된다. 수술전 이미지를 촬영하는 것에 대한 대안으로서, 치료 계획은 키네마틱 연구, 뼈 추적, 및 이외 다른 방법으로부터 수술실(OR)에서 전개될 수 있다.
수술절차의 초기 국면 동안, 뼈 추적기(44, 46)는 환자의 뼈에 견고하게 고착된다. 좌표계(FBONE, TBONE)의 포즈(위치 및 방위)는 각각 좌표계(BTRK1, BTRK2)에 매핑된다. 일 실시예에서, 자체 추적기(PT)(도 1 참조)를 갖는, 참고로 본원에 포함되는, Malackowski 등의 미국 특허 제7,725,162호에 개시된 바와 같은, 포인터 기구(P)(도 1 참조)는 대퇴골 좌표계(FBONE) 및 경골 좌표계(TBONE)를 뼈 추적기 좌표계(BTRK1, BTRK1)에 각각 등록하기 위해 사용될 수 있다. 뼈와 이들의 뼈 추적기(44, 46) 간에 고정된 관계가 주어지면, 대퇴골 좌표계(FBONE) 및 경골 좌표계(TBONE)에서 대퇴골(F) 및 경골(T)의 위치 및 방위는 뼈 추적기 좌표계(BTRK1 및 BTRK2)로 변환될 수 있으므로 카메라 유닛(36)은 뼈 추적기(44, 46)를 추적함으로써 대퇴골(F) 및 경골(T)을 추적할 수 있다. 이들 포즈-묘사 데이터는 매니플레이터 제어기(54) 및 내비게이션 프로세서(52) 둘 다에 통합된 메모리에 저장된다.
수술 도구(22)의 작업단부(에너지 애플리케이터 원단측이라고도 함)은 자체 좌표계(EAPP)를 갖는다. 좌표계(EAPP)의 원점은, 예를 들어, 수술용 커팅 버르의 중심을 나타낼 수 있다. 좌표계(EAPP)의 포즈는 수술절차가 시작되기 전에 도구 추적기 좌표계(TLTR)의 포즈에 고정된다. 따라서, 서로에 대한 이들 좌표계(EAPP, TLTR)의 포즈가 결정된다. 포즈-묘사 데이터는 매니플레이터 제어기(54) 및 내비게이션 프로세서(52) 모두에 통합된 메모리에 저장된다.
도 2를 참조하면, 로컬라이즈 엔진(100)은 내비게이션 시스템(20)의 일부로 간주될 수 있는 소프트웨어 모듈이다. 로컬라이즈 엔진(100)의 구성성분은 내비게이션 프로세서(52) 상에서 실행된다. 일부 실시예에서, 로컬라이즈 엔진(100)은 매니플레이터 제어기(54) 상에서 실행될 수 있다.
로컬라이즈 엔진(100)은 카메라 제어기(42)로부터 광학 기반 신호를, 일부 실시예에서는, 추적기 제어기로부터 비-광학 기반 신호를, 입력으로서 수신한다. 이들 신호에 기초하여, 로컬라이즈 엔진(100)은 로컬라이저 좌표계(LCLZ)에서 뼈 추적기 좌표계(BTRK1 및 BTRK2)의 포즈를 결정한다. 도구 추적기(48)에 대해 수신된 동일한 신호에 기초하여, 위치 추적 엔진(100)은 로컬라이저 좌표계(LCLZ)에서 도구 추적기 좌표계(TLTR)의 포즈를 결정한다.
로컬라이즈 엔진(100)은 추적기(44, 46, 48)의 포즈를 나타내는 신호를 좌표 변환기(102)로 보낸다. 좌표 변환기(102)는 내비게이션 프로세서(52) 상에서 실행되는 내비게이션 시스템 소프트웨어 모듈이다. 좌표 변환기(102)는 환자의 수술전 이미지와 뼈 추적기(44, 46) 간에 관계를 정의하는 데이터를 참조한다. 또한, 좌표 변환기(102)는 도구 추적기(48)에 대한 수술 도구(22)의 작업단부의 포즈를 나타내는 데이터를 저장한다.
수술절차 동안, 좌표 변환기(102)는 로컬라이저(34)에 대한 추적기(44, 46, 48)의 상대적 포즈들을 나타내는 데이터를 수신한다. 이들 데이터 및 미리 로드된 데이터에 기초하여, 좌표 변환기(102)는 로컬라이저 좌표계(LCLZ)에 대한 좌표계(EAPP) 및 뼈 좌표계(FBONE 및 TBONE) 둘 다의 상대적 위치 및 방위를 나타내는 데이터를 발생한다.
결과적으로, 좌표 변환기(102)는 작업단부가 가해지는 조직(예를 들어, 뼈)에 대한 수술 도구(22)의 작업단부의 위치 및 방위를 나타내는 데이터를 발생한다. 이들 데이터를 나타내는 이미지 신호는 외과의사 및 작업자가 이 정보를 볼 수 있게 디스플레이(28, 29)에 보내진다. 특정 실시예에서, 이들 데이터를 나타내는 다른 신호는 매니플레이터(56) 및 수술 도구(22)의 대응하는 이동을 안내하기 위해 매니플레이터 제어기(54)에 보내질 수 있다.
도 1에 도시된 실시예에서, 수술 도구(22)는 매니플레이터(56)의 단부 이펙터의 일부를 형성한다. 매니플레이터(56)는 베이스(57), 베이스(57)로부터 연장되는 복수의 링크(58), 및 베이스(57)에 대해 수술 도구(22)를 이동시키기 위한 복수의 액티브 조인트(참조번호 없음)를 갖는다. 매니플레이터(56)는 개시 내용이 본원에 참고로 포함되는, "Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes" 명칭의 미국 특허 제9,119,655호에 기술된 바와 같이, 수술 도구(22)가 기정의된 도구 경로를 따라 자율적으로 이동되는 수동 모드 또는 반자율 모드에서 동작할 수 있는 능력을 갖는다.
매니플레이터 제어기(54)는 개시 내용이 본원에 참고로 포함되는, "Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes" 명칭의 미국 특허 제9,119,655호에 설명된 바와 같이, 매니플레이터(56)를 제어하기 위해 수술 도구(22) 및 환자의 아나토미의 위치 및 방위 데이터를 사용할 수 있다.
매니플레이터 제어기(54)는 중앙 처리 유닛(CPU) 및/또는 다른 매니플레이터 프로세서, 메모리(도시되지 않음), 및 저장장치(도시되지 않음)를 가질 수 있다. 매니플레이터 컴퓨터라고도 지칭되는 매니플레이터 제어기(54)에는 이하에서 설명되는 바와 같이 소프트웨어가 로딩된다. 매니플레이터 프로세서는 매니플레이터(56)의 동작을 제어하기 위해 하나 이상의 프로세서를 포함할 수도 있을 것이다. 프로세서는 임의의 유형의 마이크로프로세서 또는 멀티-프로세서 시스템일 수 있다. 프로세서라는 용어는 임의의 실시예를 단일 프로세서로 제한하려는 것이 아니다.
도 4를 참조하면, 복수의 위치 센서(112, 114, 116)는 매니플레이터(56)의 복수의 링크(58)와 관련된다. 일 실시예에서, 위치 센서(112, 114, 116)는 인코더이다. 위치 센서(112, 114, 116)는 로터리 인코더와 같은 임의의 적합한 유형의 인코더일 수 있다. 각각의 위치 센서(112, 114, 116)는 모터(M)와 같은 액츄에이터와 관련된다. 각각의 위치 센서(112, 114, 116)는 위치 센서가 연관된 매니플레이터(56)의 3개의 모터 피구동 구성성분 중 하나의 각도 위치를 모니터하는 센서이다. 매니플레이터(56)는 2개의 추가의 위치 센서(117, 118)를 포함한다. 위치 센서(117, 118)는 추가의 피구동 링크와 관련된다. 일부 실시예에서, 매니플레이터(56)는 6개의 액티브 조인트에 6개의 위치 센서를 갖는 2개의 암 구조를 포함한다. 하나의 이러한 실시예는 개시 내용이 본원에 참고로 포함되는, "Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes" 명칭의 미국 특허 제9,119,655호에 개시되어 있다.
매니플레이터(56)는 종래의 로봇 시스템 또는 이외 다른 종래의 기계 장치의 형태일 수 있으며, 따라서 이들의 구성성분은 상세히 설명되지 않을 것이다.
매니플레이터 제어기(54)는 수술 도구(22)가 이동되어야 하는 원하는 위치를 결정한다. 이 결정 및 수술 도구(22)의 현재 위치(예를 들어, 포즈)에 관계된 정보에 기초하여, 매니플레이터 제어기(54)는 수술 도구(22)를 현재 위치에서 원하는 위치로 재위치시키기 위해 복수의 링크(58) 각각이 이동될 필요가 있는 정도를 결정한다. 복수의 링크(58)가 어디에 위치될 것인가에 관한 데이터는 복수의 링크(58)를 이동시켜 수술 도구(22)를 현재 위치에서 원하는 위치로 이동시키기 위해 매니플레이터(56)의 액티브 조인트를 제어하는 조인트 모터 제어기(119)에 보내진다.
수술 도구(22)의 현재 위치를 결정하기 위해, 위치 센서(112, 114, 116, 117, 118)로부터의 데이터는 측정된 조인트 각도를 결정하기 위해 사용된다. 액티브 조인트의 측정된 조인트 각도는 당업계에 공지된 바와 같이 포워드 키네마틱스 모듈에 보내진다. 또한, 포워드 키네마틱스 모듈에는 위치 센서(117, 118)로부터의 신호가 인가된다. 이들 신호는 이들 인코더와 통합된 패시브 조인트에 대해 측정된 조인트 각도이다. 측정된 조인트 각도 및 사전 로딩된 데이터에 기초하여, 포워드 키네마틱스 모듈은 매니플레이터 좌표계(MNPL)에서 수술 도구(22)의 포즈를 결정한다. 사전 로딩된 데이터는 복수의 링크(58) 및 조인트의 기하학적 구조를 정의하는 데이터이다. 이 정보로, 매니플레이터 제어기(54) 및/또는 내비게이션 프로세서(52)는 좌표를 로컬라이저 좌표계(LCLZ)에서 매니플레이터 좌표계(MNPL)로 또는 그 반대로 변환할 수 있다.
일 실시예에서, 매니플레이터 제어기(54) 및 조인트 모터 제어기(119)는 집합적으로, 수술 도구(22)를 원하는 위치 및/또는 방위로 이동시키도록 동작하는 위치 제어기를 형성한다. 위치 제어기는 위치 제어 루프에서 동작한다. 위치 제어 루프는 각각의 액티브 조인트에 대해 병렬로 또는 직렬로 다수의 위치 제어 루프를 포함할 수 있다. 위치 제어 루프는 수술 도구(22)의 포즈를 나타내고 지시하기 위해 위치 및 방위 정보를 처리한다.
매니플레이터(56)의 동작 동안, 추적기(44, 46, 48)와 로컬라이저(34) 사이의 시선은 원하는 위치 및/또는 방위로 수술 도구(22)의 정확한 이동을 보장하기 위해 유지되어야 한다. 시선이 차단되거나 방해받는 기간은 시선이 복귀되거나 내비게이션 시스템(20)이 리셋될 때까지 구성물질 제거 시스템(10)이 오류 메시지를 디스플레이하고 매니플레이터(56)의 동작을 중단할 것을 요구할 수 있다. 이것은 수술절차 지연을 야기할 수 있다. 이것은, 시선을 회복하는데 어려움이 생긴다면 수술절차 시간이 현저히 증가할 수도 있을 것이다.
내비게이션 컴퓨터(26)는, 비록 다른 광학 센서(40)가 여전히 신호를 수신할지라도, 광학 센서(40) 중 임의의 하나가 LED(50)로부터 신호를 수신하지 못한다면 오류가 있다고 결정한다. 다른 실시예에서, 내비게이션 컴퓨터(26)는 광학 센서(40) 중 어느 것도 신호를 수신하지 않는다면 오류가 있다고 결정한다. 어느 경우이든, 내비게이션 시스템(20)이 하나 이상의 LED(50)로부터 신호를 수신하기 위한 하나 이상의 광학 센서(40)의 고장에 기초하여 오류가 있다고 결정할 때, 내비게이션 컴퓨터(26)에 의해 오류 신호가 발생된다. 디스플레이(28, 29)에 오류 메시지가 나타난다. 내비게이션 컴퓨터(26)는 또한 추적 제어기에 오류 신호를 전송한다.
일부 실시예에서, 추적기(44)는 LED(50) 중 하나로부터의 추적 신호가 방해를 받는다면, 위치 및 방위 데이터가 나머지 LED(50)를 사용하여 여전히 얻어질 수 있도록 4개 이상의 추적 LED(50)를 포함할 수 있다. 이 경우, 임의의 오류 신호가 발생되기 전에, 내비게이션 컴퓨터(26)는 먼저 완전한 추적 사이클을 거치게 될 것이다. 완전한 추적 사이클은 광학 센서(40)가 추적 사이클에서 LED(50) 중 적어도 3개로부터 추적 신호를 수신하는지를 결정하기 위해 추적기(44) 상의 모든 LED(50)를 순차적으로 활성화하는 것을 포함한다. 광학 센서(40)(또는 일부 실시예에서 모든 광학 센서(40))가 추적 사이클에서 적어도 3개의 LED(50)로부터 추적 신호를 수신하지 않으면, 오류 신호가 발생되고 오류 메시지가 디스플레이된다. 이하 더욱 기술되는 일부 실시예에서, 내비게이션 시스템(20)은 이러한 오류 메시지를 피하기 위해 시선 방해에 대한 가능성을 감소시킨다.
시선 방해는 추적기(44, 46, 48)의 LED(50)로부터 로컬라이저(34)의 광학 센서(40)로 보내지는 광 신호를 차단한다. 내비게이션 시스템(20)은, 이러한 시선 방해를 야기할 수 있는 대상을 추적하고, 임의의 대상이 추적 디바이스(44, 46, 48) 중 하나와 로컬라이저(34) 사이의 시선을 차단 또는 방해할 위험을 제기한다면, 사용자에게 피드백을 발생시킴으로써, 수술중에, 즉 수술절차 중에, 이들 시선 방해를 감소시킨다.
시선 방해를 야기할 수 있는 대상은 수술절차 중 로컬라이저(34)의 시야 내에 있을 수 있는 임의의 물리적 대상을 포함한다. 이러한 물리적 대상의 예는 추적기(44, 46, 48) 각각 또는 이의 일부와 관련된 구조를 포함한다. 이외 다른 물리적 대상은 로컬라이저(34)의 시야 내에 있을 수 있는, 수술 도구(22), 수술 부위에 견인기, 사지 홀더, 다른 도구, 수술 요원, 또는 이들 중 임의의 것의 부분들을 포함할 수 있다. 체크되지 않는다면, 이들 물리적 대상은 시선 방해를 야기하게 이동할 수도 있을 것이다. 내비게이션 시스템(20)은 이들 물리적 대상 각각의 위치 및 방위를 추적하고, 시선 방해를 적어도 감소하기 위해, 이상적으로는 방지하기 위해 시선 방해가 일어나기 전에 사용자에게 피드백을 발생한다.
시선 방해를 야기할 수 있는 각각의 물리적 대상은 이들 물리적 대상을 추적하기 위한 가상 공간에서 모델링된다. 이들 모델을 가상 대상이라고 한다. 가상 대상은 추적기(44, 46, 48), 수술 도구(22), 견인기, 사지 홀더, 다른 도구, 혹은 수술 요원과 같은 로컬라이저(34)의 시야에서 추적되는 각각의 물리적 대상 각각의 로컬라이저 좌표계(LCLZ)에서 매핑된다. 가상 대상은 폴리곤 표면, 스플라인, 또는 대수 표면(파라메트릭 표면을 포함한)에 의해 나타낼 수 있다. 하나의 더 특정한 버전에서, 이들 표면은 삼각형 메시로서 표시된다. 각 폴리곤의 코너는 로컬라이저 좌표계(LCLZ)의 점에 의해 정의된다. 각각의 가상 대상 경계 또는 메시의 일부를 정의하는 개별 영역 섹션은 타일이라 지칭된다. 가상 대상은 복셀 기반 모델 또는 다른 모델링 기술을 사용하여 3-D 볼륨에 의해 나타낼 수도 있다.
도 5를 참조하면, 예시를 위해, 추적기(44, 46, 48) 및 수술 도구(22)의 물리적 구조와 관련된 가상 대상(44', 46', 48', 22')이 로컬라이저 좌표 시스템(LCLZ)에서 도시되었다. 가상 대상(44', 46', 48', 22')은 계산 효율의 목적으로 단순한 형상으로서 모델링된 것에 유의한다. 또한, 도구 추적기(48) 및 수술 도구(22)와 관련된 도구 추적기 및 도구 가상 대상(48', 22')은 서로에 대해 고정되며, 대안적으로는 단일 가상 대상으로서 표현될 수도 있을 것이다.
도구 추적기 및 도구 가상 대상(48', 22')은 도구 추적기(48)를 추적함으로써 추적될 수 있다. 특히, 도구 추적기 및 도구 가상 대상(48', 22')의 기하학적 모델은 메모리에 저장되고 이들과 도구 추적기(48) 상의 LED(50)과의 관계가 알려진다. 뼈 추적기 가상 대상(44', 46')은 뼈 추적기(44, 46)를 추적함으로써 추적될 수 있다. 특히, 뼈 추적기 가상 대상(44 ', 46')의 기하학적 모델은 메모리에 저장되고 이들과 뼈 추적기(44, 46) 상의 LED(50)와의 관계가 알려진다. 다른 추적 디바이스들(미도시)은 로컬라이저(34)의 시야 내에 존재하는 견인기, 사지 홀더, 다른 도구, 또는 수술 요원과 같은 다른 물리적 대상을 추적하기 위해, 이들 다른 물리적 대상에 부착될 수 있다.
수술절차가 시작되기 전에, 추적기(44, 46, 48) 각각은 로컬라이저(34)의 시야 내에 놓여진다. 디스플레이(28, 29)는 추적기(44, 46, 48)가 로컬라이저(34)의 시야 안에 놓여진 것을 시각적으로 확인하기 위해 도 6에 도시된 바와 같이, 평면 및 측면 관점에서 로컬라이저(34)의 시야를 그래픽적으로 묘사한다. 시야는 추적기(44, 46, 48)의 LED(50)로부터 광을 수신하기 위한 광학 센서(40)의 공간적 관계 및 광학 센서(40)의 범위에 의해 정의된다. 이어 내비게이션 시스템(20)은 추적기(44, 46, 48) 각각이 시야 내에서 보여질 수 있는지를 검증한다. 일단 검증되면, 수술절차를 시작할 수 있다.
도 7을 참조하면, 가상 경계 발생기(104)(도 2 참조)는 각각의 추적 디바이스(44, 46, 48)와 로컬라이저(34) 간에 시선 관계에 기초하여 가상 시선 경계(106, 108, 110)를 발생한다. 가상 시선 경계(106, 108, 110)는 각각의 추적 디바이스(44, 46, 48)의 LED(50)로부터의 광이 방해 또는 차단 없이, 로컬라이저(34)의 광학 센서(40)에 전송될 수 있도록 물리적인 대상이 진입되는 것이 제약되어야 하는 공간을 묘사한다.
일부 실시예에서, 가상 시선 경계(106, 108, 110)는 도 7에 도시된 바와 같이 원통형, 구형 또는 원추대 형상이다. 이와 다른 형상도 가능한다. 다른 실시예에서, 가상 시선 경계는 라인(예를 들어, LED 각각으로부터 광학 센서(40) 각각까지의 라인)으로 표현된다. 도 7에 도시된 가상 시선 경계(106, 108, 110)는 각각의 추적 디바이스(44, 46, 48) 상의 LED(50)에 대해 정의된 제1 단부(112, 114, 116)에서 로컬라이저(34)의 광학 센서(40)에 대해 정의된 제2 단부(118)까지 확장한다. 가상 시선 경계(106, 108, 110)는, 아래에서 더 설명되는 바와 같이, 시선 방해를 야기하지 않고, 충돌을 검출하기 위해 물리적 대상이 약간 가상 시야 경계 안으로 침투할 수 있게 과잉크기일 수 있다.
가상 경계 발생기(104)는 수술절차 동안 추적 디바이스(44, 46, 48)와 로컬라이저(34) 사이의 상대적 이동을 감안하기 위해 가상 시선 경계(106, 108, 110)를 업데이트한다. 업데이트는 내비게이션 시스템(20)이 각각의 추적 디바이스(44, 46, 48)(예를 들어, 각각의 추적 디바이스에 대해 적어도 3개의 신호)에 대한 LED(50)로부터 완전한 한 세트의 신호를 수신할 때마다 행해질 수 있다. 업데이트는 수술 도구(22)에 대해 새로운 지령된 위치가 결정될 때마다 행해질 수 있다. 수술 도구(22)가 매니플레이터(56)에 의해 제어되는 실시예에서, 각각의 새로운 지령된 위치를 결정하기 위한 시간 프레임은 매 0.1 내지 2 밀리초일 수 있다.
가상 경계 발생기(104)는 내비게이션 프로세서(52) 또는 매니플레이터 제어기(54) 또는 둘 모두에서 실행되는 소프트웨어 모듈이다. 가상 경계 발생기(104)는 가상 시선 경계(106, 108, 110)를 정의하는 맵을 발생한다. 가상 경계 발생기(104)로의 제1 입력은 로컬라이저 좌표계(LCLZ)에서 각각의 추적 디바이스(44, 46, 48)에 대한 LED(50) 각각의 위치 및 방위를 포함한다. 이 LED 포즈 데이터로부터, 제1 단부(112, 114, 116)의 위치 및 방위가 정의될 수 있다. 가상 경계 발생기(104)로의 제2 입력은 로컬라이저 좌표계(LCLZ)에서 로컬라이저(34)의 광학 센서(40) 각각의 위치 및 방위를 포함한다. 이 광학 센서 포즈 데이터로부터, 광학 센서(40)에 관한 제2 단부(118)의 위치 및 방위가 정의될 수 있다. 위에 데이터에 기초하여 그리고 지령에 기초하여, 가상 경계 발생기(104)는 로컬라이저 좌표계(LCLZ)에서 가상 시선 경계(106, 108, 110)을 정의하는 맵을 발생한다.
일부 실시예에서, 가상 경계 발생기(104)는 폴리곤 표면, 스플라인, 또는 대수 표면(파라메트릭 표면을 포함하는)으로서 가상 시선 경계를 발생한다. 하나의 더 특정한 버전에서, 이들 표면은 삼각형 메시로서 표시된다. 각 폴리곤의 코너는 로컬라이저 좌표계(LCLZ)에서 점에 의해 정의된다. 각 가상 시선 경계 또는 메시의 부분을 정의하는 개별 영역 섹션을 타일이라고도 한다. 가상 시선 경계는 복셀 기반 모델 또는 다른 모델링 기술을 사용하여 3-D 볼륨으로서 표현될 수도 있다.
충돌 검출기(120)(도 2 참조)는 가상 대상(44', 46', 48', 22')과 가상 시선 경계(106, 108, 110)(사실상 가상 대상이기도 한) 간에 충돌을 검출하기 위해 가상 시선 경계(106, 108, 110)에 대한 가상 대상(44', 46', 48', 22')의 이동을 평가한다. 보다 구체적으로, 충돌 검출기(120)는 가상 대상(44', 46', 48', 22')을 나타내는 기하학적 모델과 가상 시선 경계(106, 108, 110)를 나타내는 기하학적 모델 간의 충돌을 검출한다. 충돌 검출은 실제 가상 충돌을 감지하거나 가상 충돌을 이들이 발생하기 전에 예측하는 것을 포함된다.
충돌 검출기(120)에 의해 수행되는 추적의 목적은 추적 디바이스(44, 46, 48)의 LED(50)와 로컬라이저(34)의 광학 센서(40) 사이의 시선을 임의의 물리적 대상이 방해하는 것을 방지하려는 것이다. 충돌 검출기(120)로의 제1 입력은 로컬라이저(34)의 시야에서 추적되는 가상 대상(44', 46', 48', 22') 각각의 맵이다. 충돌 검출기(120)로의 제2 입력은 가상 시선 경계(106, 108, 110) 각각의 맵이다.
충돌 검출기(120)는 내비게이션 프로세서(52) 또는 매니플레이터 제어기(54) 또는 둘 모두에서 실행되는 소프트웨어 모듈이다. 충돌 검출기(120)는 가상 대상(44', 46', 48', 22')과 가상 시선 경계(106, 108, 110) 사이의 충돌을 검출하는 임의의 종래의 알고리즘을 사용할 수 있다. 예를 들어, 두 파라메트릭 표면의 교차점을 찾는데 적합한 기술은 세분화 방법, 격자 방법, 추적 방법, 및 분석 방법을 포함한다. 복셀 기반 가상 대상에 있어, 충돌 검출은, 본원에 참고로 포함되는, 미국 특허 제5,548,694호에 설명된 바와 같이, 로컬라이저 좌표계(LCLZ)에서 임의의 2개의 복셀이 언제 중첩하는가를 검출함으로써 수행될 수 있다.
피드백 발생기(122)(도 2 참조)는 임의의 가상 대상(44', 46', 48', 22')과 임의의 가상 시선 경계(106, 108, 110) 사이에 충돌의 검출에 응답하기 위해 충돌 검출기(120)와 통신한다. 피드백 발생기(122)는 내비게이션 프로세서(52) 또는 매니플레이터 제어기(54) 또는 둘 모두에서 실행되는 소프트웨어 모듈이다. 피드백 발생기(122)는 청각, 시각, 진동 또는 햅틱 피드백 중 하나 이상을 포함하는 하나 이상의 형태의 피드백을 사용자에게 제공함으로써 충돌 검출에 응답한다.
일 실시예에서, 피드백 발생기(122)는 충돌에 응답하여 사용자에게 가청 경보를 생성하기 위해 내비게이션 프로세서(52)와 통신하는 어넌시에이터(124)의 형태로 피드백 디바이스가 활성화되게 한다.
도 8을 참조하면, 피드백 발생기(122)는 또한 사용자가 충돌을 피하거나(충돌이 예측되어진 경우) 또는 충돌을 되돌리는 방법(이미 충돌이 일어난 경우)을 결정할 수 있도록 디스플레이(28, 29)에 충돌을 나타내는 이미지를 디스플레이하게 할 수 있다. 충돌은 연루된 물리적 대상이 어디에서 가상 시선 경계(106, 108, 110)와 충돌하였는지를 혹은 이와 충돌하려고 하는지를 나타내는 그래픽 표현과 함께, 영향을 받는 가상 시선 경계(106, 108 또는 110)를 보여줌으로써 표현될 수 있다. 연루된 특정 추적기(44, 46 또는 48), 즉 "대퇴골 추적기"와 같이 방해받게 되려는 추적기의 텍스트 설명이 디스플레이(28, 29) 상에 디스플레이될 수도 있다.
일부 실시예에서, 가상 대상을 사용하여 추적되는 로컬라이저(34)의 시야 내의 모든 물리적 대상은 디스플레이(28, 29) 상에 표현될 수 있다. 이 경우, 충돌은 컬러 코딩을 사용하여 도시될 수 있다. 예를 들어, 가상 시선 경계(106, 108 또는 110)와 충돌하는 물리적 대상(가상 대상에 의해 연관된)의 부분을 주위에 적색이 보여질 수도 있을 것이다. 영향을 받는 추적기(44, 46, 또는 48)는 또한 시각적으로 사용자가 어떤 물리적 대상이 어떤 추적기의 시선을 방해하는지를 즉시 보고, 사용자가 직관적으로 방해를 피할 수 있도록, 색으로 코드화될 수도 있을 것이다(가능하게는 동일하거나 다른 색으로). 또한, 충돌을 회피하거나 충돌을 되돌리기 위해 물리적 대상이 이동되어야 하는 방향을 보여주기 위해 화살표가 그래픽적으로 표현될 수도 있을 것이다. 이들 화살표는 후술되는 바와 같이 충돌 검출기(120)에 의해 결정된 피드백 힘의 방향에 기초하여 발생될 수도 있을 것이다.
도 9를 참조하면, 피드백 발생기(122)는, 충돌 검출에 응답하여, 디스플레이(28, 29)가 환자의 특정 아나토미를 재위치시키기 위한 지시를 포함하는 메시지를 사용자에게 디스플레이하게 할 수 있다. 특정 아나토미는 방해받게 되려는 뼈 추적기(44, 46)가 부착되는 아나토미를 포함할 수 있다. 예를 들어, 수술 도구(22)를 나타내는 도구 가상 대상(22')이 경골(T) 상의 뼈 추적기(46)와 연관된 가상 시선 경계(108)와 충돌한 것으로 발견되었다면, 내비게이션 프로세서(52)는 디스플레이(28, 29)에게 "경골을 이동"하라는 메시지를 사용자에게 디스플레이하게 할 수 있다. 특정 메시지는 가능한 충돌의 특정 시나리오와 관련된 메시지의 룩업 테이블에 저장될 수 있다. 이 예에서, 이 메시지는 도구 가상 대상(22')이 가상 시선 경계(108)와 충돌한 시나리오를 갖는 룩업 테이블에 위치된다. 보다 자세한 지시는 충돌을 회피하거나 되돌리기 위해 취할 방향을 정의하는 회피 또는 반발 벡터에 기초하여 가능한다. 지시는, 도 9에 도시된 바와 같이, 디스플레이(28, 29) 상에 추가로 디스플레이되거나 플래싱되는 화살표 A로 "경골을 이동하라는" 것일 수 있으며, 화살표 A는 회피 또는 반발 벡터의 방향에 있다.
또한, 피드백 발생기(122)는 디스플레이(28, 29)가 충돌 검출에 응답하여 로컬라이저(34)를 재위치시키는 지시를 포함하는 메시지를 사용자에게 디스플레이하게 할 수 있다. 예를 들어, 수술 도구(22)를 나타내는 도구 가상 대상(22')이 경골(T) 상의 뼈 추적기(46)와 연관된 가상 시선 경계(108)와 충돌한 것으로 발견되었다면, 내비게이션 프로세서(52)는 "카메라 유닛을 이동하라"는 메시지를 디스플레이(28, 29)가 사용자에게 디스플레이하게 할 수 있다. 특정 메시지는 가능한 충돌의 특정 시나리오와 관련된 메시지의 룩업 테이블에 저장될 수 있다. 이 예에서, 이 메시지는 도구 가상 대상(22')이 가상 시선 경계(108)와 충돌한 시나리오를 갖는 룩업 테이블에 위치한다.
또한, 피드백 발생기(122)는 충돌을 검출하는 것에 응답하여 매니플레이터(56)를 재위치시키기 위한 지시를 포함하는 메시지를 디스플레이(28, 29)가 사용자에게 디스플레이하게 할 수 있다. 예를 들어, 수술 도구(22)를 나타내는 도구 가상 대상(22')이 경골(T) 상의 뼈 추적기(46)와 관련된 가상 시선 경계(108)와 충돌한 것으로 발견되었다면, 내비게이션 프로세서(52)는 "매니플레이터를 이동하라"는 메시지를 디스플레이(28, 29)가 사용자에게 디스플레이하게 할 수 있다. 특정 메시지는 가능한 충돌의 특정 시나리오와 관련된 메시지의 룩업 테이블에 저장될 수 있다. 이 예에서, 이 메시지는 도구 가상 대상(22')이 가상 시선 경계(108)와 충돌한 시나리오를 갖는 룩업 테이블에 위치한다. 이 피드백이 사용될 수 있는 한 이유는 수술 도구(22) 또는 경골(T)이 달리 충돌을 피하기 위해 조작될 수 없는 상황에 있다. 또한, 매니플레이터(56)는 제한된 운동 범위를 가지며, 매니플레이터(56)가 이 제한된 범위의 기정의된 임계 내에 있다면, 이 메시지는 충돌을 피하기 위해 수술절차 동안 추가의 운동 범위를 되찾기 위해 필요할 수 있다.
또한, 피드백 발생기(122)는 가상 시선 경계(106, 108, 110)와 충돌하고 있거나 충돌하려는 가상 대상(44', 46', 48', 22')와 관련된 물리적 대상에 대해 진동의 형태로 진동 피드백을 사용자로 하여금 경험하게 할 수 있다. 예를 들어, 사용자가 수술 도구(22)의 핸들을 잡고있는 수동 모드에서 수술 도구(22)를 위치시키고 있는 경우, 도구 가상 대상(22')이 가상 시선 경계(106, 108, 110)와 충돌하고 있거나 충돌하려고 한다면 편심 모터와 같은 진동 디바이스(126)가 작동된다. 진동 디바이스(126)는 진동 디바이스(126)로부터의 진동이 핸들에 전달될 수 있도록 수술 도구(22)에 장착된다. 진동 피드백은 사용자에게 의도된 위치가 시선 방해를 야기할 수 있음을 나타내므로 사용자는 더 이상의 움직임을 멈출 수 있어 시선 방해를 방지할 수 있게 한다. 그러면, 사용자는 시선 방해를 피할 대안적 코스를 결정할 수 있다.
일 실시예에서, 피드백 발생기(122)는 충돌을 피하거나 반발시키는 피드백 힘으로 충돌에 응답함으로써 햅틱 피드백을 사용자에게 제공한다. 피드백 힘은 충돌 검출기(120)에 의해 결정된다. 피드백 힘은 x, y 및 z 축을 따라 3개까지의 힘, 및 이들 축에 관한 토크의 3개의 성분을 포함하는 힘 및/또는 토크 성분을 가질 수 있다.
일 실시예에서, 피드백 발생기(122)는 매니플레이터(56)가 수동 모드에서 동작될 때 수술 도구(22)를 통해 사용자에게 햅틱 피드백을 제공한다. 이것은 매니플레이터(56)가 수술 도구(22)와 관련된 도구 가상 대상(22')을 뼈 추적기(44, 46)와 관련된 가상 시선 경계(106, 108) 안으로 위치되는 것을 방지하여, 임의의 시선 방해를 피하게 한다. 일 실시예에서, 충돌 검출기(120)는 매니플레이터(56)가 수술 도구(22)를 지령된 포즈로 이동시킨다면, 그러나 매니플레이터 제어기(54)가 실제로 수술 도구(22)를 지령된 포즈로 이동시키기 전에, 가상 충돌이 일어날 것인지를 예측함으로써 충돌을 검출한다. 가상 충돌이 예측된다면, 매니플레이터(56)는 충돌을 피하기 위해 수술 도구(22)를 변경된 지령된 포즈로 이동시키도록 제어된다.
일부 실시예에서, 매니플레이터(56)는 패시브 매니플레이터이다. 이 경우, 햅틱 피드백은 가상 충돌이 발생한 후에, 영향받은 가상 시선 경계(106, 108, 110) 안으로 가상 대상(44', 46', 48', 22')의 임의의 더욱 침투되는 것을 방지하기 위해서 또는 충돌을 되돌리기 위해서 사용자에게 피드백을 제공한다. 따라서, 충돌 검출은 실제 가상 충돌 또는 예측된 가상 충돌에 응답할 수 있다. 따라서, 피드백 발생기(122)는 수술 도구(22)가 뼈 추적기(44, 46)와 로컬라이저(34) 사이에 시선 방해를 야기하는 것을 방지하기 위해 도구 가상 대상(22')이 가상 시선 경계(106, 108) 밖에 머물러 있거나 이 안으로 어느 정도까지만 침투하도록 수술 도구(22)의 수동 모드 위치설정이 제어됨을 보장한다.
가상 시선 경계(106, 108)가 메시와 같은 폴리곤 표면에 의해 표현될 때, 충돌 검출기(120)는 도구 가상 대상(22')이 시간 프레임 동안 가로지를 수도 있을 임의의 경계-규정 타일을 식별한다. 흔히 단계는 광역 페이즈 서치로서 기술된다. 이 단계는 도구 가상 대상(22')의 정의된 거리(d) 내에 있는 타일 세트 또는 세트들을 식별함으로써 수행된다. 이 정의된 거리(d)는, 도구 가상 대상(22')의 치수; 타일에 대한 도구 가상 대상(22')의 속도(과거 프레임 동안의 전진 속도가 수락가능한); 프레임의 기간; 경계 규정 섹션의 특징적 크기를 정의하는 스칼라; 및 반올림 인수의 함수이다.
광역 페이즈 서치의 실행의 결과로서, 충돌 검출기(120)는 이 분석이 수행되고 있는 프레임에서 모든 타일이 정의된 거리(d) 밖에 있는 것으로 결정할 수 있다. 이것은, 이 분석이 수행되고 있는 프레임의 끝까지, 도구 가상 대상(22')이 가상 시선 경계(106, 108) 중 어느 하나를 넘어선 위치까지 전진하지 않게 될 것임을 의미한다. 이것은 도구 가상 대상(22')이 가상 시선 경계(106)로부터 충분히 이격되어 있는 도 10에 도시되었다. 이 분석은, 특정 점이 가상 시선 경계(106)를 가로지를 것인지를 검출하기 위해 각 점이 분석되는 것으로서, 도구 가상 대상(22')의 바깥 표면을 정의하는 점(128a-128g)과 같은 도구 가상 대상(22')를 정의하는 점 세트에 대해 수행될 수 있음을 알아야 한다.
수술 도구(22)의 계속적인 전진이 어떠한 시선 방해도 야기하지 않을 것이기 때문에, 충돌 검출기(120)는 지령된 포즈 또는 원래 매니플레이터 제어기(54)에 의해 지령된 수술 도구(22)의 지령된 속도를 수정하지 않는다. 따라서 충돌 검출기(120)는 매니플레이터 제어기(54)에 의해 원래 결정된 것과 동일한 수술 도구(22)에 대한 최종 지령된 포즈 및 최종 지령된 속도를 출력한다.
충돌 검출기(120)는 대안적으로, 도구 가상 대상(22') 또는 점들(128a-128g)의 정의된 거리(d) 내에 있는 넓은 한 세트의 경계-규정 타일을 식별할 수 있다. 충돌 검출기(120)는 도구 가상 대상(22') 또는 도구 가상 대상(22') 상의 임의의 점(128a-128g)이 가로지를 수도 있을 넓은 타일 세트 내에 있는 좁은 세트의 경계-규정 타일을 식별한다. 이 단계는 협 페이즈 서치라 지칭된다. 이 협 페이즈 서치는 초기에 바운딩 볼륨을 정의함으로써 수행될 수 있다. 이 바운딩 볼륨은 도구 가상 대상(22')의 초기 포즈 및 최종 포즈인 것으로 간주되는 것 사이에서 확장한다. 이것이 최초 실행이면, 도구 가상 대상(22')의 초기 포즈는 수술 도구(22)의 이전에 지령된 포즈에 기초하며; 도구 가상 대상(22')의 최종 포즈는 수술 도구(22)의 현재 지령된 포즈, 즉 충돌 검출기(120)가 어떠한 충돌도 검출하지 않는다면 수술 도구(22)가 이 프레임에서 이동되어야 하는 매니플레이터 제어기(54)에 의해 발생되는 포즈에 기초한다.
가장 기본적인 형태에서, 바운딩 볼륨은 초기 포즈에서 점(128a-128g)부터 최종 포즈의 점(128a-128g)까지 확장하는 라인일 수 있다. 일단 협 페이즈 서치의 일부로서 바운딩 볼륨이 정의되면, 충돌 검출기(120)는 넓은 한 세트의 타일 중 어느 것이 -만약 있다면- 이 바운딩 볼륨에 의해 교차되는지를 결정한다. 바운딩 볼륨에 의해 교차된 타일은 좁흔 세트의 타일이다.
넓은 한 세트의 타일 중 어느 것도 바운딩 볼륨에 의해 교차되지 않는 것으로 결정될 수 있고, 좁은 세트는 빈 세트이다. 이 평가 테스트가 참이면, 충돌 검출기(120)는 이 상태를 도구 가상 대상(22')의 최종 포즈가 가상 시선 경계(106, 108)에 의해 정의된 볼륨 밖에 있다고 표시하는 것으로서 해석한다. 도구 가상 대상(22')가 그와 같이 위치되었다면, 원래의 지령된 포즈 및 지령된 속도는 충돌 검출기(120)에 의해 변경되지 않고, 최종 지령된 포즈 및 최종 지령된 속도로서 충돌 검출기(120)에 의해 출력된다.
대안적으로, 바운딩 볼륨이 하나 이상의 타일을 가로지르는 것으로 결정될 수 있으며; 좁은 세트는 하나 이상의 타일을 내포한다. 그러하다면, 충돌 검출기(120)는 이 상태를 도구 가상 대상(22')의 최종 포즈가 경계를 침투하고 있음을 나타내는 것으로서 해석한다. 이 상태는 도 10에 도시되었다. 여기서, 도구 가상 대상(22')의 초기 포즈는 실선으로 표현되었고 최종 포즈는 점선으로 표현되었다.
가상 시선 경계(106, 108) 상에 침범하는 상태가 존재한다면, 다음 단계는 도구 가상 대상(22')(및 더 나아가 수술 도구(22))의 좁은 한 세트의 타일의 어느 것이 먼저 가로지를 것인지를 결정하는 것이다. 바운딩 볼륨이 라인을 포함한다면, 각 타일에 대해, 그리고 각 라인에 대해, 충돌 검출기(120)는 타일을 가로지르기 전에 프레임 동안 수술 도구 가상 대상(22')이 전진할 거리의 백분율을 결정한다(도 10에서 70%로 표기한 것 참조). 거리의 가장 낮은 백분률에서 가로지르는 타일은 먼저 가로지르는 것으로 이해되는 타일이다.
도구 가상 대상(22')에 가장 가까운 경계 규정 타일은 도구 가상 대상(22')이 가로지를 수도 있을 타일이 아닐 수도 있다. 도 10에 도시된 바와 같이, 가상 시선 경계(106)의 타일(T1-T5)이 기정의된 거리(d), 즉 도구 가상 대상(22')이 잠재적으로 시간 프레임 내에서 이동할 수도 있을 거리 내에 있는 것으로 초기에 결정되었다. 도구 가상 대상(22')에 가장 가까운 타일은 T4 타일이다. 그러나, 도구 가상 대상(22')은 예시를 위해 밑으로 그리고 타일(T3)을 향해 좌측으로 가는 궤도를 따라 이동하고 있다. 따라서, 충돌 검출기(120)는 타일(T3)이 바운딩 볼륨이 교차하게 될 타일인 것으로 결정한다.
매니플레이터 제어기(54)가 수술 도구(22)를 원래 지령된 포즈로 이동시킬 경우 일단 충돌 검출기(120)가 일반적으로 어느 경계-규정 타일을 도구 가상 대상(22')이 가로지르게 될 것인지를 결정하면, 충돌 검출기(120)는 시간(t) 및 점(P)을 결정한다. 시간(t)은 도구 가상 대상(22')가 가상 시선 경계(106)를 가로지게 되었을 때 프레임의 시작에 대한 기간이다. 이 시간(t)은 도 10에 도시된 바와 같이 가상 시선 경계(106)에 접촉하기 전에 프레임 동안 도구 가상 대상(22')이 전진할 거리의 백분률에 기초하여 결정된다. 이 결정은 임의의 주어진 프레임 동안, 수술 도구(22), 따라서 도구 가상 대상(22')의 속도가 일정하다는 가정에 기초하여 이루어진다. 점(P)은 도구 가상 대상(22')이 타일을 가로지르게 될 로컬라이저 좌표계(LCLZ)에서 점이다. 이 점(P)은 도구 가상 대상(22')의 전진 경로가 타일을 어디에서 가로지르는지를 계산함으로써 결정된다. 계산 둘 다는 먼저 타일을 가로지르는 특정 점(128a-128g)의 초기 및 최종 포즈와 경계 타일의 주변을 정의하는 데이터를 입력 변수로서 사용한다.
일부 실시예에서, 이 상황에서, 원래의 지령된 포즈는 가상 시선 경계(106)에 접촉하기 전에 수술 도구(22)가 도달하는 위치 및 방위, 예를 들어, 거리/시간의 70%에 도달된 위치 및 방위가 되게 충돌 검출기(120)에 의해 변경된다. 사용자는 수술 도구(22)를 이동할 것이라는 기대를 갖고 수술 도구(22)를 쥐고 있어, 전체 100 퍼센트 이동은 이동이 변경된 위치 및 방위까지만인 70%에서 정지했을 때, 물리적 벽에 마주치는 것과 유사한 햅틱 피드백을 경험할 것이다. 따라서, 수술 도구(22)가 부착된 매니플레이터(56)는 햅틱 피드백을 사용자에게 전송하는 햅틱 디바이스인 것으로 간주된다.
또 다른 실시예에서, 피드백 발생기(122)는 가상 시선 경계(106)를 넘어 수술 도구(22)의 원하지 않는 진전을 정지시키기 위해 수술 도구(22)(가상 강체로서 모델링된)에 가해질 피드백 힘을 결정한다. 피드백 발생기(122)는 피드백 힘을 수술 도구(22)에 가해지는 경계 제약 힘으로서 결정한다. 보다 구체적으로, 피드백 발생기는, 시간(t)에서 수술 도구(22)에 인가된다면, 가상의 시선 경계(106)에 수직하여 이를 향한 방향으로 수술 도구(22)의 전진을 멈추게 할 스칼라 피드백 힘(FBNDR)을 결정한다. 피드백 발생기(122)는 힘(FBNDR)의 크기를 결정하기 위해 다수의 상이한 방법 중 임의의 하나를 사용할 수 있다. 예를 들어, 참조로 본원에 포함되는, "Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes" 명칭의 미국 특허 제9,119,655호에 개시된 바와 같이, 임펄스 방법이 사용될 수 있다.
최종 지령된 포즈 및 지령된 속도는 힘(FBNDR)을 감안하기 위해 계산된다. 가상 시선 경계(106)와의 접촉을 방지하기 위해 수술 도구(22)의 이동을 단지 70%에서 중단하는 것과는 대조적으로, 이 방법은 임펄스 힘에 의해, 단지 가상 시선 경계(106)에 수직인 이동 성분을 중단시킨다. 따라서, 가상 시선 경계(106)를 따른 이동은 급격한 정지와는 반대로, 보다 자연스러운 햅틱 피드백을 사용자에게 제공하기 위해 전체 시간 프레임 동안 계속된다.
궁극적으로, 충돌 검출기(120)로부터 최종 지령된 포즈는 매니플레이터 제어기(54)의 역 키네마틱스 모듈(도시되지 않음)에 인가된다. 역 키네마틱스 모듈은 매니플레이터 제어기(54)에 의해 실행되는 운동 제어 모듈이다. 지령된 포즈 및 사전 로딩된 데이터에 기초하여, 역 키네마틱스 모듈은 매니플레이터(56)의 조인트의 원하는 조인트 각도를 결정한다. 사전 로딩된 데이터는 링크(58) 및 조인트의 기하구조를 정의하는 데이터이다. 일부 버전에서, 이들 데이터는 Denavit-Hartenberg 파라미터 형태이다.
전술한 바와 같이, 수술절차가 시작되기 전에, 추적기(44, 46, 48) 각각은 로컬라이저(34)의 시야 내에 놓여진다. 시선 방해를 감소시키도록 동작하는 내비게이션 시스템(20)은 또한 추적기(44, 46, 48)를 시야 내에 유지하도록 동작한다. 특히, 내비게이션 시스템(20)은 수술절차 중에 추적기(44, 46, 48)의 움직임을 추적하고 임의의 추적기(44, 46, 48)가 로컬라이저(34)의 시야 밖으로 이동할 위험이 있다면 피드백을 사용자에게 발생함으로써, 수술중, 즉 수술절차 중에 추적기(44, 46, 48)를 시야 내에 유지하게 동작한다.
로컬라이저(34)의 시야는 도 6의 평면도 및 측면도로부터 보여졌다. 가상 경계 발생기(104)는 또한 로컬라이저(34)의 시야에 기초하여 가상 시야 경계(113)를 발생한다. 가상 시야 경계(113)는 추적기(44, 46, 48)로부터의 신호가 추적기(44, 46, 48)의 위치 및/또는 방위을 결정할 목적으로 로컬라이저(34)에 의해 수신될 수 있는 공간의 볼륨을 묘사한다. 즉, 각 추적기(44, 46, 48)의 적어도 3개의 LED(50)로부터의 신호는 로컬라이저(34)의 광학 센서(40) 각각에 의해 수신될 수 있다.
일부 실시예에서, 가상 시야 경계(113)는 도 7에 도시된 바와 같이 원추대 형상이다. 다른 실시예에서, 가상 시야 경계(113)는 원통형 또는 구형 형상이다. 이외 다른 형상도 가능한다. 도 7에 도시된 가상 시야 경계(113)는 로컬라이저(34)로부터 원단측으로 밖으로 발산하게 확장한다. 가상 시야 경계(113)는 추적기(44, 46, 48)를 나타내는 가상 대상(44', 46', 48')이, 이하 더 설명되는 바와 같이, 실제 로컬라이저(34)의 시야를 넘어 이동하지 않고, 충돌을 검출하기 위해 가상 시야 경계(113) 안으로 약간 침투할 수 있게 과잉크기일 수 있다.
가상 시야 경계(113)는 수술절차 중에 정적인 상태로 유지되도록 의도되지만, 그러나 수술절차 중에 로컬라이저(34)가 움직인다면 조정이 필요할 수 있다. 이 경우에, 가상 경계 발생기(104)는 수술절차 중에 이러한 이동을 감안하기 위해 가상 시야 경계(113)를 업데이트한다.
가상 경계 발생기(104)는 가상 시야 경계(113)를 정의하는 맵을 발생한다. 가상 경계 발생기(104)로의 입력은 로컬라이저 좌표계(LCLZ)에서 로컬라이저(34)의 위치 및 방위, 즉 제조 중에 설정되고(CMM에 의해 측정됨) 카메라 유닛(36) 또는 내비게이션 컴퓨터(26) 내의 메모리에 저장되는 로컬라이저 좌표계(LCLZ)에서의 광학 위치 센서(40)의 위치/배열을 포함한다. 이 로컬라이저 포즈 데이터로부터, 가상 시야 경계(113)의 위치 및 방위가 설정될 수 있다. 또한, 가상 시야 경계(113)는 제조 중에 설정될 수 있고 카메라 유닛(36) 또는 내비게이션 컴퓨터(26)의 메모리에 저장될 수 있다. 가상 시야 경계(113)의 크기 및 형상은 수술절차 전에 미리 결정되고 로컬라이저(34)에 대해 위치가 고정된다. 가상 시야 경계(113)의 크기 및 형상과 관련된 데이터는 내비게이션 프로세서(52)에 의해 불러들이기 위해 카메라 유닛(36) 및/또는 내비게이션 컴퓨터(26) 상의 메모리에 저장된다. 전술한 데이터에 기초하여 그리고 지시를 통해, 가상 경계 발생기(104)는 로컬라이저 좌표계(LCLZ)에서 가상 시야 경계(113)를 정의하는 맵을 발생한다.
일부 실시예에서, 가상 경계 발생기(104)는 폴리곤 표면, 스플라인, 또는 대수 표면(파라메트릭 표면을 포함한)으로서 가상 시야 경계(113)를 발생한다. 하나의 더 특정한 버전에서, 표면은 삼각형 메시로서 표시된다. 각 폴리곤의 코너는 로컬라이저 좌표계(LCLZ)에서 점에 의해 정의된다. 메시의 일부를 정의하는 개별 영역 섹션을 타일이라고 한다. 가상 시야 경계(113)는 또한 복셀 기반 모델을 사용하여 3D 볼륨으로서 표현될 수 있다.
충돌 검출기(120)는 가상 대상(44', 46', 48')과 가상 시야 경계(113)(사실상 가상 대상이기도 함) 간에 충돌을 검출하기 위해 가상 시야 경계(113)에 대한 뼈 추적기 및 도구 추적기 가상 대상(44', 46', 48')의 이동을 평가한다. 더 구체적으로, 충돌 검출기(120)는 가상 대상(44', 46', 48')를 나타내는 기하학적 모델과 가상 시야 경계(113)를 나타내는 기하학적 모델 간의 충돌을 검출한다. 충돌 감지는 실제 가상 충돌을 검출하거나 가상 충돌을 이들이 발생하기 전에 예측하는 것을 포함한다.
충돌 검출기(120)에 의해 수행되는 추적의 목적은 추적기(44, 46, 48)가 로컬라이저(34)의 시야의 밖으로 이동하는 것을 방지하는 것이다. 충돌 검출기(120)로의 제1 입력은 로컬라이저(34)의 시야에서 추적되는 가상 대상(44', 46', 48') 각각의 맵이다. 충돌 검출기(120)로의 제2 입력은 가상 시야 경계(113)의 맵이다.
충돌 검출기(120)는 가상 대상(44', 46', 48')과 가상 시야 경계(113) 간에 충돌을 검출하는 임의의 종래의 알고리즘을 사용할 수 있다. 예를 들어, 두 파라메트릭 표면의 교차점을 찾는데 적합한 기술은 세분화 방법, 격자 방법, 추적 방법, 및 분석 방법을 포함한다. 복셀 기반 가상 대상에 있어, 충돌 검출은, 본원에 참고로 포함되는, 미국 특허 제5,548,694호에 설명된 바와 같이, 로컬라이저 좌표계(LCLZ)에서 임의의 2개의 복셀이 언제 겹치는가를 검출함으로써 수행될 수 있다.
피드백 발생기(122)는 임의의 가상 대상(44', 46', 48')와 가상 시야 경계(113) 사이의 충돌의 검출에 응답한다. 피드백 발생기(122)는 청각, 시각, 진동 또는 햅틱 피드백 중 하나 이상을 포함하는 하나 이상의 형태의 피드백을 사용자에게 제공함으로써 충돌 검출에 응답한다.
일 실시예에서, 피드백 발생기(122)는 충돌에 응답하여 사용자에게 가청 경보를 생성하기 위해 어넌시에이터(124)의 활성화를 야기한다.
또한, 피드백 발생기(122)는 사용자가 충돌을 피하거나(충돌이 예측되어진 경우) 또는 충돌을 되돌리는 방법(이미 충돌이 일어난 경우)을 결정할 수 있도록 디스플레이(28, 29)에 충돌을 나타내는 이미지를 디스플레이하게 할 수 있다. 충돌은 연루된 물리적 추적기가 어디에서 가상 시선 경계(113)와 충돌하였는지를 혹은 이와 충돌하려고 하는지를 나타내는 그래픽을 보여줌으로써 표현될 수 있다. "대퇴골 추적기"와 같은 연루된 특정 추적기(44, 46 또는 48)의 텍스트 설명이 디스플레이(28, 29) 상에 디스플레이될 수도 있다.
일부 실시예에서, 가상 대상을 사용하여 추적되는 로컬라이저(34)의 시야 내의 모든 추적기(44, 46, 48)는 디스플레이(28, 29) 상에 표현될 수도 있을 것이다. 이 경우, 충돌은 컬러 코딩을 사용하여 도시될 수 있다. 예를 들어, 영향을 받는 추적기(44, 46, 또는 48)는 또한 시각적으로 사용자가 어떤 추적기가 시야 밖으로 이동하게 될 것이지를 즉시 보고 사용자가 직관적으로 이러한 이동을 피할 수 있도록, 색으로 코드화될 수도 있을 것이다. 또한, 추적기가 시야 내에 머물러 있도록 이동되어야 하는 방향을 보여주기 위해 화살표가 그래픽적으로 표현될 수도 있을 것이다. 이들 화살표는 앞서 기술된 방식으로 충돌 검출기(120)에 의해 결정된 피드백 힘의 방향에 기초하여 발생될 수도 있을 것이다.
도 11을 참조하면, 피드백 발생기(122)는, 충돌 검출에 응답하여, 디스플레이(28, 29)가 환자의 특정 아나토미를 재위치시키기 위한 지시를 포함하는 메시지를 사용자에게 디스플레이하게 할 수 있다. 특정 아나토미는 시야 밖으로 이동하려는 뼈 추적기(44, 46)가 부착되는 아나토미를 포함할 수 있다. 예를 들어, 경골(T) 상의 뼈 추적기(46)가 로컬라이저(34)의 시야 밖으로 이동하려한다면, 내비게이션 프로세서(52)는 디스플레이(28, 29)에게 "경골을 이동"하라는 메시지를 사용자에게 디스플레이하게 할 수 있다. 특정 메시지는 가능한 충돌의 특정 시나리오와 관련된 메시지의 룩업 테이블에 저장될 수 있다. 이 예에서, 이 메시지는 뼈 추적기 가상 대상(46')이 가상 시야 경계(113)와 충돌한 시나리오를 갖는 룩업 테이블에 위치된다. 보다 자세한 지시는 충돌을 회피하거나 되돌리기 위해 취할 방향을 정의하는 회피 또는 반발 벡터에 기초하여 가능하다. 지시는 디스플레이(28, 29) 상에 추가로 디스플레이되거나 플래싱되는 화살표 B로 "경골을 이동하라는" 것일 수 있으며, 화살표 B는 회피 또는 반발 벡터의 방향에 있다.
또한, 피드백 발생기(122)는 디스플레이(28, 29)가 충돌 검출에 응답하여 로컬라이저(34)를 재위치시키는 지시를 포함하는 메시지를 사용자에게 디스플레이하게 할 수 있다. 예를 들어, 뼈 추적기 또는 도구 추적기 가상 대상(44', 46', 48') 중 하나가 가상 시야 경계(113)와 충돌한 것으로 충돌한 것으로 발견되었다면, 내비게이션 프로세서(52)는 "카메라 유닛을 이동하라"는 메시지를 디스플레이(28, 29)가 사용자에게 디스플레이하게 할 수 있다. 특정 메시지는 가능한 충돌의 특정 시나리오와 관련된 메시지의 룩업 테이블에 저장될 수 있다. 이 예에서, 이 메시지는 뼈 추적기 또는 도구 추적기 가상 대상(44', 46', 48') 중 하나가 가상 시야 경계(113)와 충돌한 시나리오를 갖는 룩업 테이블에 위치한다.
또한, 피드백 발생기(122)는 충돌을 검출하는 것에 응답하여 매니플레이터(56)를 재위치시키기 위한 지시를 포함하는 메시지를 디스플레이(28, 29)가 사용자에게 디스플레이하게 할 수 있다. 예를 들어, 도구 추적기 가상 대상(48')이 가상 시야 경계(113)와 충돌한 것으로 발견되었다면, 내비게이션 프로세서(52)는 "매니플레이터를 이동하라"는 메시지를 디스플레이(28, 29)가 사용자에게 디스플레이하게 할 수 있다. 특정 메시지는 가능한 충돌의 특정 시나리오와 관련된 메시지의 룩업 테이블에 저장될 수 있다. 이 예에서, 이 메시지는 도구 추적기 가상 대상(48')이 가상 시야 경계(113)와 충돌한 시나리오를 갖는 룩업 테이블에 위치한다. 이 피드백이 사용될 수 있는 한 이유는 수술 도구(22)이 달리 충돌을 피하기 위해 조작될 수 없는 상황에 있다. 또한, 매니플레이터(56)는 제한된 운동 범위를 가지며, 매니플레이터(56)가 이 제한된 범위의 기정의된 임계 내에 있다면, 이 메시지는 충돌을 피하기 위해 수술절차 동안 추가의 운동 범위를 되찾기 위해 필요할 수 있다.
또한, 피드백 발생기(122)는 진동의 형태로 진동 피드백을 사용자로 하여금 경험하게 할 수 있다. 예를 들어, 사용자가 수술 도구(22)의 핸들을 잡고있는 수동 모드에서 수술 도구(22)를 위치시키고 있는 경우, 도구 추적기 가상 대상(48')이 가상 시야 경계(113)와 충돌하고 있거나 충돌하려고 한다면 진동 디바이스(126)가 작동될 수 있다. 진동 피드백은 사용자에게 도구 추적기(48)가 로컬라이저(34)의 시야 밖으로 이동할 뻔 했음을 나타내므로 사용자는 더 이상의 움직임을 멈출 수 있어 도구 추적기(48)가 시야 밖으로 이동하는 것을 방지할 수 있다.
일 실시예에서, 피드백 발생기(122)는 충돌을 피하거나 반발시키는 피드백 힘으로 충돌에 응답함으로써 햅틱 피드백을 사용자에게 제공한다. 피드백 힘은 충돌 검출기(120)에 의해 결정된다. 피드백 힘은 x, y 및 z 축을 따라 3개까지의 힘, 및 이들 축에 관한 토크의 3개의 성분을 포함하는 힘 및/또는 토크 성분을 가질 수 있다.
일 예에서, 피드백 발생기(122)는 매니플레이터(56)가 수동 모드에서 동작될 때 수술 도구(22)를 통해 사용자에게 햅틱 피드백을 제공한다. 이것은 매니플레이터(56)가 도구 추적기 가상 대상(48')을 가상 시야 경계(113) 안으로 위치시키는 것을 방지하여, 시야 밖으로 도구 추적기(48)의 이동을 피하게 한다. 일 실시예에서, 충돌 검출기(120)는 매니플레이터(56)가 수술 도구(22)를 지령된 포즈로 이동시킨다면, 그러나 매니플레이터 제어기(54)가 실제로 수술 도구(22)를 지령된 포즈로 이동시키기 전에, 가상 충돌이 일어날 것인지를 예측함으로써 충돌을 검출한다. 가상 충돌이 예측된다면, 매니플레이터(56)는 충돌을 피하기 위해 수술 도구(22)를 변경된 지령된 포즈로 이동시키도록 제어된다.
일부 실시예에서, 매니플레이터(56)는 패시브 매니플레이터이다. 이 경우, 햅틱 피드백은 가상 충돌이 발생한 후에, 가상 시야 경계(113) 안으로 도구 추적기 가상 대상(48')의 임의의 더욱 침투하는 것을 방지하기 위해서 또는 충돌을 되돌리기 위해서 사용자에게 피드백을 제공한다. 따라서, 충돌 검출은 실제 가상 충돌 또는 예측된 가상 충돌에 응답할 수 있다. 따라서, 피드백 발생기(122)는 수술 도구(22)가 로컬라이저(34)의 시야 밖으로 이동하는 것을 방지하기 위해 도구 추적기 가상 대상(48')이 가상 시야 경계(113) 내에 머물러 있거나 이 안으로 어느 정도까지만 침투하도록 수술 도구(22)의 수동 모드 위치설정이 제어됨을 보장한다.
가상 시야 경계(113)가 메시와 같은 폴리곤 표면에 의해 표현될 때, 충돌 검출기(120)는 도구 가상 대상(22') 및 도 10에 관하여 전술한 것과 동일한 방식으로 충돌을 검출할 수 있다.
또한, 피드백 발생기(122)는 전술한 바와 동일한 방식으로 가상 시야 경계(113)를 넘어 도구 추적기(48)의 원하지 않는 진전을 멈추기 위해 수술 도구(22)에 가해질 피드백 힘을 결정할 수 있다. 이 경우, 도구 추적기 가상 경계(48')는 도구 가상 경계(22')에 관련하여 고정된다. 따라서, 도구 추적기 가상 경계(48')의 이동은 전술한 바와 같이 수술 도구(22) 및 이의 가상 경계(22')의 움직임을 제어함으로써 제어된다.
수술절차에서 구성물질 제거 시스템(10)의 동작 중에, 내비게이션 시스템(20)은 가상 대상(44', 46', 48', 22')와 관련된 물리적 대상 중 임의의 것이 추적기(44, 46, 48) 중 하나와 로컬라이저(34) 사이에 시선 방해를 야기할 위험을 제기하는지 여부를 결정하기 위해 가상 대상(44', 46', 48', 22') 각각의 위치 및 방위를 계속하여 추적한다. 내비게이션 시스템(20)은 또한 가상 대상(44', 46', 48')과 관련된 추적기(44, 46, 48) 중 어느 것이 로컬라이저(34)의 시야 밖으로 이동할 위험을 제기하는지 여부를 결정하기 위해 가상 대상(44', 46', 48') 각각의 위치 및 방위를 계속하여 추적한다. 목적은 매니플레이터(56)의 동작이 시선을 잃거나 시야 밖으로 이동함으로써 야기되는 불필요한 지연없이 계속할 수 있도록 추적 방해를 감소시키는 것이다. 하나의 예시적 방법이 이하에 개괄된다.
도 12의 흐름도를 참조하면, 단계 200에서, 내비게이션 시스템(20)은 먼저 로컬라이저(34)의 시야 내에서 각각의 추적 디바이스(44, 46, 48)를 검출한다. 일단 추적 디바이스(44, 46, 48)가 검출되면, 단계 202에서 가상 경계 발생기(104)는 추적 디바이스(44, 46, 48)와 로컬라이저(34) 사이의 시선 관계에 기초하여 가상 시야 경계(106, 108, 110)를 발생한다. 가상 경계 발생기(104)는 또한 로컬라이저(34)의 시야에 기초하여 가상 시야 경계(113)를 발생한다.
수술절차는 일단 초기 가상 경계(106, 108, 110, 113)가 발생되었으면 단계 204에서 시작한다.
단계(206)에서, 가상 시선 경계(106, 108, 110)는 수술절차 동안 추적기(44, 46, 48)와 로컬라이저(34) 사이의 상대적 이동을 감안하기 위해 업데이트된다.
가상 대상(44', 46', 48', 22')은 로컬라이저(34)의 시야에서 추적되고 있는 물리적 대상에 수술전에 연관된다. 이들은 시선 방해를 야기할 위협을 제기하는 물리적 대상이다. 또한, 뼈 추적기 및 도구 추적기 가상 대상(44', 46', 48')은 로컬라이저(34)의 시야에 유지되어야 하는 추적기(44, 46, 48)와 관련된다.
가상 대상(44', 46', 48', 22')이 생성되어, 내비게이션 컴퓨터(26) 또는 매니플레이터 제어기(54) 또는 둘 모두 내에 메모리에 저장되고, 이들의 파라미터는 이들의 연관된 추적기(44, 46, 48)의 특정 좌표계에 관하여 정의된다. 예를 들어, 대퇴골(F)에 부착된 뼈 추적기(44)의 구조를 나타내는 뼈 추적기 가상 대상(44')은 로컬라이저(34)가 뼈 추적기 뼈 추적기(44)를 추적함으로써 뼈 추적기 가상 대상(44')을 추적하고 이어 뼈 추적기 가상 대상(44')를 정의하는 파라미터를 로컬라이저 좌표계(LCLZ)로 변환할 수 있도록 수술전에 생성되어 뼈 추적기 좌표계(BTRK1)에 매핑된다.
충돌 검출기(120)는 단계 208에서 가상 대상(44', 46', 48', 22')과 가상 경계(106, 108, 110, 113) 사이의 상대적 이동을 평가한다. 가상 대상(44', 46', 48', 22')의 이동을 평가하는 것은 가상 대상(44', 46', 48', 22')과 가상 경계(106, 108, 110, 113) 사이에 충돌의 검출을 용이하게 하기 위해 가상 경계(106, 108, 110, 113)의 위치 및 방위에 관하여 각각의 가상 대상(44', 46', 48', 22')의 위치 및 방위를 추적하는 것을 포함할 수 있다.
판단 블록(210)은 충돌 검출기(120)가 하나 이상의 가상 대상(44', 46', 48', 22')과 하나 이상의 가상 경계들(106, 108, 110, 113)(실제 가상 충돌 또는 예측된 가상 충돌) 간에 충돌을 검출하였는지를 결정한다. 충돌이 검출되지 않았으면, 프로세스는 판단 블록(214)으로 진행하여 수술절차가 완료되었는지를 결정한다. 수술절차가 아직 완료되지 않았다면, 프로세스는 단계 206으로 되돌아 가서 가상 시선 경계(106, 108, 110)의 위치 및/또는 방위가 업데이트된다(그리고 가상 시야 경계(113)는 로컬라이저(34)가 이동되어졌다면 업데이트된다). 수술절차가 완료되면 충돌 검출이 종료된다.
판단 블록(210)을 다시 참조하면, 충돌이 검출되면, 단계(212)에서 피드백이 발생된다. 피드백은, 전술한 바와 같이, 가청 피드백, 시각 피드백, 진동 피드백, 또는 햅틱 피드백 중 하나 이상의 형태이다. 특히, 피드백 발생기(122)는 어넌시에이터(124)를 활성화시키고, 디스플레이(28,29)를 조작하고, 진동 디바이스(126)를 활성화시키고, 및/또는 매니플레이터(56)를 통해 햅틱 피드백을 발생할 것을 내비게이션 프로세서(52) 또는 매니플레이터 제어기(54)에 지시한다.
일단 피드백이 발생되면, 내비게이션 프로세서(52) 또는 매니플레이터 제어기(54)는 판단 블록(214)에서 수술절차가 완료되었는지를 결정한다. 그렇다면 수술절차는 종료된다. 그렇지 않다면, 프로세스는 수술절차가 완료될 때까지 반복하기 위해 단계 206로 다시 루프된다. 단계 206에서 가상 시선 경계(106, 108, 110)에 대한 후속 업데이트들 사이의 프로세스 루프는 지령된 위치가 매니플레이터(56)에 대해 발생될 때마다 또는 로컬라이저(34)가 추적기(44, 46, 48)의 새로운 위치 및/또는 방위를 검출할 때마다 발생할 수 있다.
전술한 설명에서 몇몇 실시예가 설명되었다. 그러나, 본원에서 논의된 실시예는 고갈되게 하거나 본 발명을 임의의 특정한 형태로 제한하려는 것이 아니다. 사용된 용어는 제한보다는 단어가 설명의 성격을 갖게 한 것이다. 위에 교시된 바에 비추어 많은 수정 및 변형이 가능하며, 본 발명은 구체적으로 기술된 것과 다르게 실시될 수도 있다.
예시적 조항
조항 1 - 가상 대상으로서 가상 공간에 정의된 물리적 대상에 의해 야기된 추적 방해를 감소시키기 위한 내비게이션 시스템으로서, 시스템은 시야를 갖는 로컬라이저; 로컬라이저가 추적 디바이스와의 시선 관계를 확립할 수 있도록 로컬라이저의 시야 내에 놓여지게 하기 위한 추적 디바이스; 추적 디바이스와 로컬라이저 사이의 시선 관계에 기초하여 가상 시야 경계를 발생하게 구성되고, 추적 디바이스와 로컬라이저 사이의 상대적 움직임을 감안하기 위해 가상 시선 경계를 업데이트하도록 구성된, 가상 경계 발생기; 및 가상 대상과 가상 시선 경계와의 충돌을 검출하고 물리적 대상이 추적 디바이스와 로컬라이저 사이의 시선을 방해하는 것을 방지하는 응답을 가능하게 하기 위해 가상 시야 경계에 대한 가상 대상의 움직임을 평가하도록 구성된 충돌 검출기를 포함하는, 시스템.
조항 2 - 조항 1의 시스템으로서, 물리적 대상이 추적 디바이스와 로컬라이저 사이의 시선을 방해하는 것을 방지하기 위해 가상 대상과 상기 가상 시선 경계 사이의 충돌을 검출하는 것에 응답하여 피드백을 발생하기 위해 가상 경계 발생기와 통신하는 피드백 발생기를 포함하는, 시스템.
조항 3 - 조항 2의 시스템으로서, 청각, 시각, 진동, 또는 햅틱 피드백 중 적어도 하나를 발생하기 위해 피드백 발생기와 통신하는 피드백 디바이스를 포함하는, 시스템.
조항 4 - 조항 2 또는 3의 시스템으로서, 피드백 발생기와 통신하며 물리적 대상을 진동시키도록 구성된 진동 디바이스를 포함하는, 시스템.
조항 5 - 조항 2, 3, 또는 4의 시스템으로서, 피드백 발생기와 통신하고 물리적 대상의 움직임을 제어하도록 구성된 햅틱 디바이스를 포함하는, 시스템.
조항 6 - 조항 5의 시스템으로서, 햅틱 디바이스는 도구의 움직임을 제약함으로써 도구의 움직임을 제어하도록 구성되는, 시스템.
조항 7 - 조항 5 또는 6의 시스템으로서, 피드백 발생기와 통신하고 햅틱 디바이스를 재위치시키기 위한 지시를 발생하도록 구성된 피드백 디바이스를 포함하는, 시스템.
조항 8 - 조항 2-7 중 어느 하나의 시스템으로서, 피드백 발생기와 통신하며, 환자의 아나토미를 재위치시키라는 지시를 사용자에게 발생하도록 구성된 피드백 디바이스를 포함하는, 시스템.
조항 9 - 조항 2-8 중 어느 하나의 시스템으로서, 피드백 발생기와 통신하고 로컬라이저를 재위치시키기 위한 지시를 발생하도록 구성된 피드백 디바이스를 포함하는, 시스템.
조항 10 - 조항 1-9 중 어느 하나의 시스템으로서, 충돌 검출기는 충돌을 예측함으로써 충돌을 검출하도록 구성된, 시스템.
조항 11 - 조항 1-10 중 어느 하나의 시스템으로서, 로컬라이저는 추적 디바이스의 하나 이상의 마커로부터의 광을 감지하기 위한 하나 이상의 광학 센서를 포함하는, 시스템.
조항 12 - 조항 1-11 중 어느 하나의 시스템으로서, 충돌 검출기는 가상 시선 경계의 위치 및 방위에 대해 가상 대상의 위치 및 방위를 추적하도록 구성되는, 시스템.
조항 13 - 조항 1-12 중 어느 하나의 시스템으로서, 가상 경계 발생기는 추적 디바이스로부터의 광이 물리적 대상에 의한 방해 없이 로컬라이저로 전송될 수 있도록 물리적 대상이 진입하는 것이 제약되는 공간을 묘사하도록 형상화된 경계 가상 대상을 발생함으로써 가상 시선 경계를 발생하도록 구성된, 시스템.
조항 14 - 조항 1-13 중 어느 하나의 시스템으로서, 가상 경계 발생기는 추적 디바이스의 위치 및 방위와 로컬라이저의 위치 및 방위에 기초하여 경계 가상 대상을 발생함으로써 가상 시선 경계를 발생하게 구성된, 시스템.
조항 15 - 조항 1-14 중 어느 하나의 시스템으로서, 가상 시선 경계는 원통형 또는 원추대 형상 중 적어도 하나인, 시스템.
조항 16 - 조항 1-15 중 어느 하나의 시스템으로서, 가상 시선 경계는 하나 이상의 라인을 포함하는, 시스템.
*조항 17 - 조항 1-16 중 어느 하나의 시스템으로서, 가상 경계 발생기는 추적 디바이스의 새로운 위치 및 방위가 결정될 때마다 추적 디바이스와 로컬라이저 간의 상대적 이동을 감안하도록 가상 시선 경계를 업데이트하게 구성되는, 시스템.
조항 18 - 조항 1-17 중 어느 하나의 시스템으로서, 가상 경계 발생기는 0.1-2 밀리초마다 추적 디바이스와 로컬라이저 사이의 상대적 이동을 감안명하기 위해 가상 시선 경계를 업데이트하도록 구성되는, 시스템.
조항 19 - 조항 1-18 중 어느 하나의 시스템으로서, 제2 추적 디바이스를 포함하며, 가상 경계 발생기는, 제2 추적 디바이스와 로컬라이저 사이의 시선 관계에 기초하여 제2 가상 시선 경계를 발생하도록 구성되는, 시스템.
조항 20 - 조항 19의 시스템으로서, 가상 경계 발생기는 제2 추적 디바이스와 로컬라이저 간의 상대적인 이동을 감안하기 위해 제2 가상 시선 경계를 업데이트하도록 구성된, 시스템.
조항 21 - 조항 19 또는 20의 시스템으로서, 충돌 검출기는 가상 대상과 제2 가상 시선 경계 간의 상대적 이동을 평가하도록 구성되는, 시스템.
조항 22 - 조항 19, 20 또는 21 중 어느 하나의 시스템으로서, 충돌 검출기는 물리적 대상이 제2 추적 디바이스와 로컬라이저 사이의 시선을 방해하는 것을 방지하는 응답을 가능하게 하기 위해 가상 대상과 제2 가상 시선 경계 간의 충돌을 검출하도록 구성되는, 시스템.
조항 23 - 조항 1-12 중 어느 하나의 시스템으로서, 물리적 대상은 도구 또는 사람의 적어도 일부인, 시스템.
조항 24 - 추적 디바이스와 내비게이션 시스템의 로컬라이저 사이의 추적 방해를 감소시키는 방법으로서, 로컬라이저의 시야 내에서 추적 디바이스를 검출하는 단계; 로컬라이저의 시야에 기초하여 가상 시야 경계를 발생하는 단계; 가상 대상을 추적 디바이스와 연관시키는 단계; 가상 시야 경계에 대한 가상 대상의 움직임을 추적하는 단계; 및 추적 디바이스가 로컬라이저의 시야 밖으로 이동하는 것을 방지하는 응답을 가능하게하도록 추적하는 동안 가상 대상과 가상 시야 경계 간의 충돌을 검출하는 단계를 포함하는, 방법.
조항 25 - 조항 24의 방법으로서, 충돌을 검출하는 것에 응답하여 피드백을 발생하는 단계를 포함하는, 방법.
조항 26 - 조항 25의 방법으로서, 피드백을 발생하는 단계는 청각, 시각, 진동, 또는 햅틱 피드백 중 적어도 하나를 발생하는 단계를 포함하는, 방법.
조항 27 - 조항 25 또는 26의 방법으로서, 피드백을 발생하는 단계는 물리적 대상을 진동시키는 단계를 포함하는, 방법.
조항 28 - 조항 25, 26 또는 27의 방법으로서, 피드백을 발생하는 단계는 추적 디바이스의 움직임을 제어하는 단계를 포함하며, 추적 디바이스는 햅틱 디바이스에 부착되는, 방법.
조항 29 - 조항 28의 방법으로서, 추적 디바이스의 이동을 제어하는 단계는 햅틱 디바이스로 추적 디바이스의 움직임을 제약하는 단계를 포함하는, 방법.
조항 30 - 조항 28 또는 29의 방법으로서, 햅틱 디바이스를 재위치시키기 위한 지시를 발생하는 것을 포함하는, 방법.
조항 31 - 조항 25-30 중 어느 하나의 방법으로서, 피드백을 발생하는 단계는 환자의 아나토미를 재위치하라는 지시를 사용자에게 발생하는 단계를 포함하는, 방법.
조항 32 - 조항 25-31 중 어느 하나의 방법으로서, 피드백을 발생하는 단계는 로컬라이저를 재위치하기 위한 지시를 발생하는 단계를 포함하는, 방법.
조항 33 - 조항 24-32 중 어느 하나의 방법으로서, 충돌을 검출하는 단계는 충돌을 예측하는 것으로서 더 정의되는, 방법.
조항 34 - 조항 24-33 중 어느 하나의 방법으로서, 로컬라이저의 시야 내의 추적 디바이스를 검출하는 단계는, 추적 디바이스의 하나 이상의 마커로부터의 광을 로컬라이저의 하나 이상의 광학 센서로 감지하는 단계를 포함하는, 방법.
조항 35 - 조항 24-34 중 어느 하나의 방법으로서, 가상 시야 경계에 대한 가상 대상의 움직임을 추적하는 단계는, 가상 시야 경계의 위치 및 방위에 대한 가상 대상의 위치 및 방위를 추적하는 단계를 포함하는, 방법.
조항 36 - 조항 24-35 중 어느 하나의 방법으로서, 가상 시야 경계를 발생하는 단계는, 추적 디바이스로부터 광이 로컬라이저에 전송될 수 있도록 추적 디바이스가 떠나는 것이 제약되는 공간을 묘사하도록 형상화 경계 가상 대상을 발생하는 것을 포함하는, 방법.
조항 37 - 조항 24-36 중 어느 하나의 방법으로서, 가상 시야 경계를 발생하는 단계는 로컬라이저의 위치 및 방위에 기초하여 경계 가상 대상을 발생하는 단계를 포함하는, 방법.
조항 38 - 조항 24-37 중 어느 하나의 방법으로서, 가상 시야 경계는 원통형, 구형 또는 원추대 형상 중 적어도 하나인, 방법.
조항 39 - 추적 방해를 감소시키기 위한 내비게이션 시스템으로서, 시야를 갖는 로컬라이저; 추적 디바이스는 이와 연관된 가상 대상을 갖는 것으로서, 로컬라이저가 추적 디바이스로부터 신호를 수신할 수 있도록 로컬라이저의 시야 내에 위치시키기 위한 추적 디바이스; 로컬라이저의 시야에 기초하여 가상 시야 경계를 발생하는 가상 경계 발생기; 및 가상 대상과 가상 시야 경계 간의 충돌을 검출하고 추적 디바이스가 로컬라이저의 시야 밖으로 이동하는 것을 방지하는 응답을 가능하게 하기 위해 가상 시야 경계에 대한 가상 대상의 이동을 평가하도록 구성된 충돌 검출기를 포함하는, 시스템.
조항 40 - 조항 39의 시스템으로서, 가상 대상과 가상 시야 경계 간의 충돌을 검출하는 것에 응답하여 피드백을 발생하기 위해 가상 경계 발생기와 통신하는 피드백 발생기를 포함하는, 시스템.
조항 41 - 조항 40의 시스템으로서, 청각, 시각, 진동 또는 햅틱 피드백 중 적어도 하나를 발생시키기 위해 피드백 발생기와 통신하는 피드백 디바이스를 포함하는, 시스템.
조항 42 - 조항 39 또는 40의 시스템으로서, 피드백 발생기와 통신하고 물리적 대상을 진동시키도록 구성된 진동 디바이스를 포함하는, 시스템.
조항 43 - 조항 39, 40 또는 41의 시스템으로서, 피드백 발생기와 통신하고 추적 디바이스의 움직임을 제어하도록 구성된 햅틱 디바이스를 포함하고, 추적 디바이스는 햅틱 디바이스에 부착된, 시스템.
조항 44 - 조항 43의 시스템으로서, 햅틱 디바이스는 추적 디바이스의 움직임을 제약함으로써 추적 디바이스의 움직임을 제어하도록 구성되는, 시스템.
조항 45 - 조항 43 또는 44의 시스템으로서, 피드백 발생기와 통신하고 햅틱 디바이스를 재위치시키기 위한 지시를 발생하도록 구성된 피드백 디바이스를 포함하는, 시스템.
조항 46 - 조항 40-45 중 어느 하나의 시스템으로서, 피드백 발생기와 통신하며, 환자의 아나토미를 재위치하라는 지시를 사용자에게 발생하도록 구성된 피드백 디바이스를 포함하는, 시스템.
조항 47 - 조항 40-46 중 어느 하나의 시스템으로서, 피드백 발생기와 통신하고 로컬라이저를 재위치시키기 위한 지시를 발생하도록 구성된 피드백 디바이스를 포함하는, 시스템.
조항 48 - 조항 39-47 중 어느 하나의 시스템으로서, 충돌 검출기는 충돌을 예측함으로써 충돌을 검출하도록 구성된, 시스템.
조항 49 - 조항 39-48 중 어느 하나의 시스템으로서, 로컬라이저는 추적 디바이스의 하나 이상의 마커로부터의 광을 감지하기 위한 하나 이상의 광학 센서를 포함하는, 시스템.
조항 50 - 조항 39-49 중 어느 하나의 시스템으로서, 충돌 검출기는 가상 시야 경계의 위치 및 방위에 대해 가상 대상의 위치 및 방위를 추적하도록 구성되는, 시스템.
조항 51 - 조항 39-50 중 어느 하나의 시스템으로서, 가상 경계 발생기는 추적 디바이스로부터 광이 로컬라이저에 전송될 수 있도록 추적 디바이스가 떠나는 것이 제약되는 공간을 묘사하도록 형상화된 경계 가상 대상을 발생함으로써 가상 시야 경계를 발생하도록 구성되는, 시스템.
조항 52 - 조항 39-51 중 어느 하나의 시스템으로서, 가상 경계 발생기는 로컬라이저의 위치 및 방위에 기초하여 경계 가상 대상을 발생함으로써 가상 시야 경계를 발생하도록 구성된, 시스템.
조항 53 - 조항 39-52 중 어느 하나의 시스템으로서, 가상 시야 경계는 원통형, 구형 또는 원추대 형상 중 적어도 하나인, 시스템.
Claims (22)
- 수술 시스템으로서,
수술 도구를 지지하도록 구성된 매니플레이터(manipulator);
추적기 및 시야를 포함하는 로컬라이저를 포함하는 내비게이션 시스템; 및
상기 매니플레이터 및 내비게이션 시스템에 결합되는 하나 이상의 제어기;
를 포함하고,
상기 하나 이상의 제어기는:
상기 추적기와 상기 로컬라이저 간의 시선 관계를 확립함으로써 상기 로컬라이저의 시야 내에서 상기 추적기를 검출하고;
상기 시선 관계에 기초하여 가상 시선 경계를 발생시키고;
가상 대상을 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상과 관련시키고;
상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 계획된 움직임이 상기 가상 대상과 상기 가상 시선 경계 간의 가상 충돌을 발생시킬 것인지 여부를 예측하여 결정하며;
상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것인지 여부를 예측하여 결정한 결과에 기초하여 응답을 가능하게 하도록 구성되는, 수술 시스템. - 제1항에 있어서,
상기 하나 이상의 제어기는:
복수의 시간 프레임에 걸쳐서, 상기 가상 시선 경계에 대하여 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 계획된 움직임에 대응하는 상기 가상 대상의 계획된 움직임을 시뮬레이트(simulate)하고;
상기 복수의 시간 프레임 각각에 대하여, 상기 가상 대상의 기하학적 특징이 상기 가상 시선 경계까지의 임계 거리를 충족하거나 임계 거리를 초과함으로써 상기 가상 충돌을 발생시킬 것인지 여부를 평가하도록 구성됨으로써,
상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 계획된 움직임이 상기 가상 대상과 상기 가상 시선 경계 간의 가상 충돌을 발생시킬 것인지 여부를 예측하여 결정하는, 수술 시스템. - 제1항에 있어서,
하나 이상의 제어기는: 상기 계획된 움직임이 상기 가상 충돌을 발생시키지 않을 것이라는 결과에 응답하여, 상기 계획된 움직임에 따라 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 움직임을 제어하도록 구성됨으로써 상기 응답을 가능하게 하는, 수술 시스템. - 제1항에 있어서,
하나 이상의 제어기는: 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여, 변경된 움직임에 따라 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 움직임을 제어하도록 구성됨으로써 상기 응답을 가능하게 하고,
상기 변경된 움직임은, 상기 계획된 움직임과는 상이하고, 상기 가상 충돌을 회피하는 것인, 수술 시스템. - 제1항에 있어서,
하나 이상의 제어기는: 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여, 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 움직임을 제약(constrain)하도록 구성됨으로써 상기 응답을 가능하게 하는, 수술 시스템. - 제1항에 있어서,
상기 응답을 가능하게 하는 것은, 상기 하나 이상의 제어기가 청각, 시각, 진동 또는 햅틱 피드백 중의 하나 이상을 생성하도록 구성되는 것을 포함하는, 수술 시스템. - 제1항에 있어서,
하나 이상의 제어기는: 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여, 상기 가상 충돌을 회피하기 위한 지시(instructions)를 디스플레이 디바이스 상에 그래픽적으로 표시하도록 구성됨으로써, 상기 응답을 가능하게 하고,
상기 지시는, 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상을 재배치하기 위한 것인, 수술 시스템. - 시스템의 작동 방법으로서,
상기 시스템은: 수술 도구를 지지하도록 구성된 매니플레이터(manipulator); 추적기 및 시야를 포함하는 로컬라이저를 포함하는 내비게이션 시스템; 및 상기 매니플레이터와 상기 내비게이션 시스템에 결합되는 하나 이상의 제어기를 포함하고,
상기 작동 방법은, 상기 하나 이상의 제어기에 의해:
상기 추적기와 상기 로컬라이저 간의 시선 관계를 확립함으로써 상기 로컬라이저의 시야 내에서 상기 추적기를 검출하는 단계;
상기 시선 관계에 기초하여 가상 시선 경계를 발생시키는 단계;
가상 대상을 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상과 관련시키는 단계;
상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 계획된 움직임이 상기 가상 대상과 상기 가상 시선 경계 간의 가상 충돌을 발생시킬 것인지 여부를 예측하여 결정하는 단계; 및
상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것인지 여부를 예측하여 결정하는 단계의 결과에 기초하여 응답을 가능하게 하는 단계
를 포함하는, 시스템의 작동 방법. - 제8항에 있어서,
상기 응답을 가능하게 하는 단계는: 상기 계획된 움직임이 상기 가상 충돌을 발생시키지 않을 것이라는 결과에 응답하여 상기 계획된 움직임에 따라, 또는 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여 변경된 움직임에 따라, 상기 하나 이상의 제어기가 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 움직임을 제어하는 단계를 포함하고,
상기 변경된 움직임은, 상기 계획된 움직임과는 상이하고, 상기 가상 충돌을 회피하는, 시스템의 작동 방법. - 제8항에 있어서,
상기 응답을 가능하게 하는 단계는: 상기 하나 이상의 제어기가 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 움직임을 제약하는 단계를 포함하는, 시스템의 작동 방법. - 제8항에 있어서,
상기 응답을 가능하게 하는 단계는: 상기 하나 이상의 제어기가 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여, 상기 가상 충돌을 회피하기 위한 지시를 디스플레이 디바이스 상에 그래픽적으로 표시하는 단계를 포함하고,
상기 지시는, 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상을 재배치하기 위한 것인, 시스템의 작동 방법. - 수술 시스템으로서,
수술 도구를 지지하도록 구성된 매니플레이터(manipulator);
상기 매니플레이터 및 내비게이션 시스템에 결합되는 추적기, 및 시야를 포함하는 로컬라이저를 포함하는 내비게이션 시스템; 및
상기 매니플레이터 및 상기 내비게이션 시스템에 결합되는 하나 이상의 제어기;
를 포함하고,
상기 하나 이상의 제어기는:
상기 로컬라이저의 시야 내에서 상기 추적기를 검출하고;
상기 로컬라이저의 시야에 기초하여 가상 시선 경계를 발생시키고;
가상 대상을 상기 추적기와 관련시키고;
상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 계획된 움직임이 상기 가상 대상과 상기 가상 시선 경계 간의 가상 충돌을 발생시킬 것인지 여부를 예측하여 결정하며;
상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것인지 여부를 예측하여 결정한 결과에 기초하여 응답을 가능하게 하도록 구성되는, 수술 시스템. - 제12항에 있어서,
상기 하나 이상의 제어기는:
복수의 시간 프레임에 걸쳐서, 상기 가상 시선 경계에 대하여 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 계획된 움직임에 대응하는 상기 가상 대상의 계획된 움직임을 시뮬레이트(simulate)하고;
상기 복수의 시간 프레임 각각에 대하여, 상기 가상 대상의 기하학적 특징이 상기 가상 시선 경계까지의 임계 거리를 충족하거나 임계 거리를 초과함으로써 상기 가상 충돌을 발생시킬 것인지 여부를 평가하도록 구성됨으로써,
상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 상기 계획된 움직임이 상기 가상 대상과 상기 가상 시선 경계 간의 가상 충돌을 발생시킬 것인지 여부를 예측하여 결정하는, 수술 시스템. - 제12항에 있어서,
하나 이상의 제어기는: 상기 계획된 움직임이 상기 가상 충돌을 발생시키지 않을 것이라는 결과에 응답하여, 상기 계획된 움직임에 따라 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 움직임을 제어하도록 구성됨으로써 상기 응답을 가능하게 하는, 수술 시스템. - 제12항에 있어서,
하나 이상의 제어기는: 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여, 변경된 움직임에 따라 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 움직임을 제어하도록 구성됨으로써 상기 응답을 가능하게 하고,
상기 변경된 움직임은, 상기 계획된 움직임과는 상이하고, 상기 가상 충돌을 회피하는 것인, 수술 시스템. - 제12항에 있어서,
하나 이상의 제어기는: 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여, 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 움직임을 제약하도록 구성됨으로써 상기 응답을 가능하게 하는, 수술 시스템. - 제12항에 있어서,
상기 응답을 가능하게 하는 것은, 상기 하나 이상의 제어기가 청각, 시각, 진동 또는 햅틱 피드백 중의 하나 이상을 생성하도록 구성되는 것을 포함하는, 수술 시스템. - 제12항에 있어서,
하나 이상의 제어기는: 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여, 상기 가상 충돌을 회피하기 위한 지시(instructions)를 디스플레이 디바이스 상에 그래픽적으로 표시하도록 구성됨으로써, 상기 응답을 가능하게 하고,
상기 지시는, 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상을 재배치하기 위한 것인, 수술 시스템. - 시스템의 작동 방법으로서,
상기 시스템은: 수술 도구를 지지하도록 구성된 매니플레이터; 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상에 결합되는 추적기, 및 시야를 포함하는 로컬라이저를 포함하는 내비게이션 시스템; 및 상기 매니플레이터와 상기 내비게이션 시스템에 결합되는 하나 이상의 제어기를 포함하고,
상기 작동 방법은, 상기 하나 이상의 제어기에 의해:
상기 로컬라이저의 시야 내에서 상기 추적기를 검출하는 단계;
상기 로컬라이저의 시야에 기초하여 가상 시선 경계를 발생시키는 단계;
가상 대상을 상기 추적기와 관련시키는 단계;
상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 계획된 움직임이 상기 가상 대상과 상기 가상 시선 경계 간의 가상 충돌을 발생시킬 것인지 여부를 예측하여 결정하는 단계; 및
상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것인지 여부를 예측하여 결정하는 단계의 결과에 기초하여 응답을 가능하게 하는 단계
를 포함하는, 시스템의 작동 방법. - 제19항에 있어서,
상기 응답을 가능하게 하는 단계는: 상기 계획된 움직임이 상기 가상 충돌을 발생시키지 않을 것이라는 결과에 응답하여 상기 계획된 움직임에 따라, 또는 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여 변경된 움직임에 따라, 상기 하나 이상의 제어기가 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 움직임을 제어하는 단계를 포함하고,
상기 변경된 움직임은, 상기 계획된 움직임과는 상이하고, 상기 가상 충돌을 회피하는, 시스템의 작동 방법. - 제19항에 있어서,
상기 응답을 가능하게 하는 단계는: 상기 하나 이상의 제어기가 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상의, 움직임을 제약하는 단계를 포함하는, 시스템의 작동 방법. - 제19항에 있어서,
상기 응답을 가능하게 하는 단계는: 상기 하나 이상의 제어기가 상기 계획된 움직임이 상기 가상 충돌을 발생시킬 것이라는 결과에 응답하여, 상기 가상 충돌을 회피하기 위한 지시를 디스플레이 디바이스 상에 그래픽적으로 표시하는 단계를 포함하고,
상기 지시는, 상기 매니플레이터 또는 상기 수술 도구 중의 하나 이상을 재배치하기 위한 것인, 시스템의 작동 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020247009857A KR20240044536A (ko) | 2015-02-25 | 2016-02-24 | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562120585P | 2015-02-25 | 2015-02-25 | |
US62/120,585 | 2015-02-25 | ||
KR1020177017901A KR102491907B1 (ko) | 2015-02-25 | 2016-02-24 | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 |
PCT/US2016/019347 WO2016138124A1 (en) | 2015-02-25 | 2016-02-24 | Navigation systems and methods for reducing tracking interruptions during a surgical procedure |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177017901A Division KR102491907B1 (ko) | 2015-02-25 | 2016-02-24 | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020247009857A Division KR20240044536A (ko) | 2015-02-25 | 2016-02-24 | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230015508A true KR20230015508A (ko) | 2023-01-31 |
KR102653682B1 KR102653682B1 (ko) | 2024-04-03 |
Family
ID=55527650
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020247009857A KR20240044536A (ko) | 2015-02-25 | 2016-02-24 | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 |
KR1020237001704A KR102653682B1 (ko) | 2015-02-25 | 2016-02-24 | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 |
KR1020177017901A KR102491907B1 (ko) | 2015-02-25 | 2016-02-24 | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020247009857A KR20240044536A (ko) | 2015-02-25 | 2016-02-24 | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177017901A KR102491907B1 (ko) | 2015-02-25 | 2016-02-24 | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 |
Country Status (7)
Country | Link |
---|---|
US (3) | US10660711B2 (ko) |
EP (2) | EP4197479A1 (ko) |
JP (3) | JP6748088B2 (ko) |
KR (3) | KR20240044536A (ko) |
CN (2) | CN107205786B (ko) |
AU (4) | AU2016222790B2 (ko) |
WO (1) | WO2016138124A1 (ko) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2750620B1 (en) | 2011-09-02 | 2017-04-26 | Stryker Corporation | Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing |
JP6748088B2 (ja) * | 2015-02-25 | 2020-08-26 | マコ サージカル コーポレーション | 外科手術中の追跡中断を低減するナビゲーションシステム及び方法 |
WO2016187290A1 (en) | 2015-05-19 | 2016-11-24 | Mako Surgical Corp. | System and method for manipulating an anatomy |
EP3321044A4 (en) * | 2015-08-25 | 2019-05-29 | Kawasaki Jukogyo Kabushiki Kaisha | REMOTELY CONTROLLED MANIPULATOR SYSTEM AND METHOD FOR OPERATION THEREOF |
US10231793B2 (en) | 2015-10-30 | 2019-03-19 | Auris Health, Inc. | Object removal through a percutaneous suction tube |
US9949749B2 (en) | 2015-10-30 | 2018-04-24 | Auris Surgical Robotics, Inc. | Object capture with a basket |
US9955986B2 (en) | 2015-10-30 | 2018-05-01 | Auris Surgical Robotics, Inc. | Basket apparatus |
KR20180109855A (ko) * | 2016-02-26 | 2018-10-08 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 가상 경계를 이용하는 충돌 회피 시스템 및 방법 |
EP3375399B1 (en) | 2016-10-05 | 2022-05-25 | NuVasive, Inc. | Surgical navigation system |
CA3042091A1 (en) | 2016-10-31 | 2018-05-03 | Synaptive Medical (Barbados) Inc. | 3d navigation system and methods |
EP3554414A1 (en) | 2016-12-16 | 2019-10-23 | MAKO Surgical Corp. | Techniques for modifying tool operation in a surgical robotic system based on comparing actual and commanded states of the tool relative to a surgical site |
WO2019092225A1 (en) * | 2017-11-13 | 2019-05-16 | Koninklijke Philips N.V. | Autonomous x-ray control for robotic navigation |
US11071595B2 (en) * | 2017-12-14 | 2021-07-27 | Verb Surgical Inc. | Multi-panel graphical user interface for a robotic surgical system |
AU2018383641B2 (en) | 2017-12-14 | 2023-06-15 | Mako Surgical Corp. | View angle-independent visual representation of a cut procedure |
CN111315312A (zh) * | 2018-01-04 | 2020-06-19 | 柯惠Lp公司 | 包括扭矩传感器的机器人外科系统 |
CN108324373B (zh) * | 2018-03-19 | 2020-11-27 | 南开大学 | 一种基于电磁定位系统的穿刺手术机器人精确定位实现方法 |
JP7139643B2 (ja) * | 2018-03-23 | 2022-09-21 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
US11166781B2 (en) * | 2018-04-23 | 2021-11-09 | Mako Surgical Corp. | System, method and software program for aiding in positioning of a camera relative to objects in a surgical environment |
US10842699B2 (en) * | 2018-04-27 | 2020-11-24 | Ormonde M. Mahoney | System and method for patient positioning in an automated surgery |
EP3569159A1 (en) * | 2018-05-14 | 2019-11-20 | Orthotaxy | Surgical system for cutting an anatomical structure according to at least one target plane |
EP3793465A4 (en) | 2018-05-18 | 2022-03-02 | Auris Health, Inc. | CONTROL DEVICES FOR ROBOTIC ACTIVATION REMOTE CONTROL SYSTEMS |
US11026752B2 (en) | 2018-06-04 | 2021-06-08 | Medtronic Navigation, Inc. | System and method for performing and evaluating a procedure |
US11510737B2 (en) | 2018-06-21 | 2022-11-29 | Mako Surgical Corp. | Patella tracking |
CN113016038B (zh) * | 2018-10-12 | 2024-06-18 | 索尼集团公司 | 避免与机器人手术设备碰撞的触觉障碍 |
JP6895128B2 (ja) * | 2018-11-09 | 2021-06-30 | オムロン株式会社 | ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム |
EP3680738A1 (de) * | 2019-01-14 | 2020-07-15 | Siemens Aktiengesellschaft | Kollisionsprüfung auf basis höherwertiger geometrie |
JP7400494B2 (ja) * | 2019-01-23 | 2023-12-19 | ソニーグループ株式会社 | 医療用アームシステム、制御装置、制御方法、及びプログラム |
ES2972869T3 (es) * | 2019-02-14 | 2024-06-17 | Braun Gmbh | Sistema para evaluar el uso de un producto de consumo móvil manualmente previsto |
US20220338886A1 (en) | 2019-06-19 | 2022-10-27 | Think Surgical, Inc. | System and method to position a tracking system field-of-view |
US11369386B2 (en) | 2019-06-27 | 2022-06-28 | Auris Health, Inc. | Systems and methods for a medical clip applier |
CN114040727A (zh) | 2019-06-28 | 2022-02-11 | 奥瑞斯健康公司 | 包括具有混合重定向表面的腕部的医疗器械 |
EP3993725A1 (en) * | 2019-07-03 | 2022-05-11 | Stryker Corporation | Obstacle avoidance techniques for surgical navigation |
US11896330B2 (en) | 2019-08-15 | 2024-02-13 | Auris Health, Inc. | Robotic medical system having multiple medical instruments |
US11612440B2 (en) | 2019-09-05 | 2023-03-28 | Nuvasive, Inc. | Surgical instrument tracking devices and related methods |
JP2022549511A (ja) | 2019-09-26 | 2022-11-25 | ストライカー・コーポレイション | 手術ナビゲーションのシステム及び方法 |
EP4034349A1 (en) | 2019-09-26 | 2022-08-03 | Auris Health, Inc. | Systems and methods for collision detection and avoidance |
WO2021064536A1 (en) | 2019-09-30 | 2021-04-08 | Auris Health, Inc. | Medical instrument with capstan |
JP7328861B2 (ja) * | 2019-10-09 | 2023-08-17 | キヤノンメディカルシステムズ株式会社 | 医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置 |
US11737835B2 (en) | 2019-10-29 | 2023-08-29 | Auris Health, Inc. | Braid-reinforced insulation sheath |
CN113040922B (zh) * | 2019-12-27 | 2022-06-14 | 重庆海扶医疗科技股份有限公司 | 聚焦超声手术执行机构的运动控制方法、介质、系统和设备 |
JP2023508718A (ja) | 2019-12-31 | 2023-03-03 | オーリス ヘルス インコーポレイテッド | 高度バスケット駆動モード |
EP4084717A4 (en) | 2019-12-31 | 2024-02-14 | Auris Health, Inc. | DYNAMIC PULLEY SYSTEM |
KR20220158737A (ko) | 2020-03-27 | 2022-12-01 | 마코 서지컬 코포레이션 | 가상 경계에 기초하여 툴의 로봇 움직임을 제어하기 위한 시스템 및 방법 |
WO2022003485A1 (en) | 2020-06-29 | 2022-01-06 | Auris Health, Inc. | Systems and methods for detecting contact between a link and an external object |
US11357586B2 (en) * | 2020-06-30 | 2022-06-14 | Auris Health, Inc. | Systems and methods for saturated robotic movement |
EP4196035A1 (en) * | 2020-08-12 | 2023-06-21 | Brainlab AG | Determining an avoidance region for a reference device |
CN116075276A (zh) * | 2020-09-02 | 2023-05-05 | 奥瑞斯健康公司 | 机器人碰撞边界确定 |
CN112700474B (zh) * | 2020-12-31 | 2024-08-20 | 广东美的白色家电技术创新中心有限公司 | 碰撞检测方法、设备及计算机可读存储介质 |
CN112716603B (zh) * | 2021-01-19 | 2021-11-26 | 威海威高骨科手术机器人有限公司 | 一种骨科复位定位机器人 |
CN113081272B (zh) * | 2021-03-22 | 2023-02-03 | 珞石(北京)科技有限公司 | 虚拟墙引导的膝关节置换手术辅助定位系统 |
WO2023215822A2 (en) * | 2022-05-05 | 2023-11-09 | Virginia Commonwealth University | Methods and systems for surgical training |
WO2023230349A1 (en) * | 2022-05-26 | 2023-11-30 | Stryker Corporation | Alert system behavior based on localization awareness |
EP4406503A1 (en) * | 2023-01-27 | 2024-07-31 | Ecential Robotics | Surgical navigation system dealing with partially-obscured markers |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140039681A1 (en) * | 2012-08-03 | 2014-02-06 | Stryker Corporation | Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes |
US20140276943A1 (en) * | 2013-03-13 | 2014-09-18 | Stryker Corporation | Systems and Methods for Establishing Virtual Constraint Boundaries |
Family Cites Families (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5430643A (en) | 1992-03-11 | 1995-07-04 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Configuration control of seven degree of freedom arms |
US5548694A (en) | 1995-01-31 | 1996-08-20 | Mitsubishi Electric Information Technology Center America, Inc. | Collision avoidance system for voxel-based object representation |
DE19817039A1 (de) * | 1998-04-17 | 1999-10-21 | Philips Patentverwaltung | Anordnung für die bildgeführte Chirurgie |
US6424885B1 (en) | 1999-04-07 | 2002-07-23 | Intuitive Surgical, Inc. | Camera referenced control in a minimally invasive surgical apparatus |
US7747312B2 (en) | 2000-01-04 | 2010-06-29 | George Mason Intellectual Properties, Inc. | System and method for automatic shape registration and instrument tracking |
US20010034530A1 (en) | 2000-01-27 | 2001-10-25 | Malackowski Donald W. | Surgery system |
DE10025285A1 (de) | 2000-05-22 | 2001-12-06 | Siemens Ag | Vollautomatische, robotergestützte Kameraführung unter Verwendung von Positionssensoren für laparoskopische Eingriffe |
US8010180B2 (en) * | 2002-03-06 | 2011-08-30 | Mako Surgical Corp. | Haptic guidance system and method |
JP2004223128A (ja) | 2003-01-27 | 2004-08-12 | Hitachi Ltd | 医療行為支援装置および方法 |
WO2005039835A1 (en) | 2003-10-24 | 2005-05-06 | The University Of Western Ontario | Force reflective robotic control system and minimally invasive surgical device |
JP3946711B2 (ja) | 2004-06-02 | 2007-07-18 | ファナック株式会社 | ロボットシステム |
JP4335160B2 (ja) | 2005-03-02 | 2009-09-30 | 任天堂株式会社 | 衝突判定プログラムおよび衝突判定装置 |
JP4417877B2 (ja) | 2005-04-20 | 2010-02-17 | 株式会社セブンスディメンジョンデザイン | 光送受信装置制御システム |
US9082319B2 (en) | 2006-01-24 | 2015-07-14 | Carnegie Mellon University | Method, apparatus, and system for computer-aided tracking, navigation and motion teaching |
CA2651784C (en) | 2006-05-19 | 2015-01-27 | Mako Surgical Corp. | Method and apparatus for controlling a haptic device |
US8560047B2 (en) | 2006-06-16 | 2013-10-15 | Board Of Regents Of The University Of Nebraska | Method and apparatus for computer aided surgery |
US9718190B2 (en) * | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
ATE412929T1 (de) | 2006-09-14 | 2008-11-15 | Abb Research Ltd | Verfahren und vorrichtung zur vermeidung von kollisionen zwischen einem industrieroboter und einem objekt |
US8082064B2 (en) | 2007-08-24 | 2011-12-20 | Elite Engineering Corporation | Robotic arm and control system |
DE102007055205A1 (de) | 2007-11-19 | 2009-05-20 | Kuka Roboter Gmbh | Verfahren zum Ermitteln eines Aufstellortes und zum Aufstellen einer Erfassungsvorrichtung eines Navigationssystems |
WO2010069430A1 (de) | 2008-12-17 | 2010-06-24 | Kuka Roboter Gmbh | Verfahren zum abfahren einer vorgegebenen bahn durch einen manipulator, sowie steuervorrichtung zur durchführung eines solchen verfahrens |
US8386080B2 (en) | 2009-09-15 | 2013-02-26 | Harris Corporation | Robotic apparatus implementing collision avoidance scheme and associated methods |
KR101606097B1 (ko) | 2009-10-01 | 2016-03-24 | 마코 서지컬 코포레이션 | 보철 부품의 위치 선정 및/또는 수술 도구의 이동 제한용 수술 시스템 |
CA2797116A1 (en) | 2010-04-22 | 2011-10-27 | Blue Belt Technologies, Llc | Reconfigurable navigated surgical tool tracker |
CA2797302C (en) | 2010-04-28 | 2019-01-15 | Ryerson University | System and methods for intraoperative guidance feedback |
US9439556B2 (en) | 2010-12-10 | 2016-09-13 | Wayne State University | Intelligent autonomous camera control for robotics with medical, military, and space applications |
CA2839706C (en) | 2011-06-23 | 2017-05-02 | Stryker Corporation | Prosthetic implant and method of implantation |
EP2750620B1 (en) | 2011-09-02 | 2017-04-26 | Stryker Corporation | Surgical instrument including a cutting accessory extending from a housing and actuators that establish the position of the cutting accessory relative to the housing |
US9770828B2 (en) | 2011-09-28 | 2017-09-26 | The Johns Hopkins University | Teleoperative-cooperative robotic system |
US9333044B2 (en) | 2011-12-30 | 2016-05-10 | St. Jude Medical, Atrial Fibrillation Division, Inc. | System and method for detection and avoidance of collisions of robotically-controlled medical devices |
CN104334110B (zh) | 2012-06-01 | 2017-10-03 | 直观外科手术操作公司 | 使用零空间回避操纵器臂与患者碰撞 |
WO2013192598A1 (en) | 2012-06-21 | 2013-12-27 | Excelsius Surgical, L.L.C. | Surgical robot platform |
US9694497B2 (en) | 2012-07-10 | 2017-07-04 | Siemens Aktiengesellschaft | Robot arrangement and method for controlling a robot |
JP6255402B2 (ja) | 2012-08-15 | 2017-12-27 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 手術システムの動きを操作するためのファントム自由度 |
US9008757B2 (en) | 2012-09-26 | 2015-04-14 | Stryker Corporation | Navigation system including optical and non-optical sensors |
US10028788B2 (en) | 2012-12-31 | 2018-07-24 | Mako Surgical Corp. | System for image-based robotic surgery |
US9566120B2 (en) | 2013-01-16 | 2017-02-14 | Stryker Corporation | Navigation systems and methods for indicating and reducing line-of-sight errors |
US9717461B2 (en) | 2013-01-24 | 2017-08-01 | Kineticor, Inc. | Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan |
US9827054B2 (en) | 2014-03-14 | 2017-11-28 | Synaptive Medical (Barbados) Inc. | Intelligent positioning system and methods therefore |
CA2929702C (en) | 2013-03-15 | 2023-03-07 | Synaptive Medical (Barbados) Inc. | Systems and methods for navigation and simulation of minimally invasive therapy |
JP2014180720A (ja) | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | ロボットシステム及びキャリブレーション方法 |
EP3102144B1 (en) | 2014-02-05 | 2019-09-18 | Intuitive Surgical Operations, Inc. | System and method for dynamic virtual collision objects |
WO2015161297A1 (en) | 2014-04-17 | 2015-10-22 | The Johns Hopkins University | Robot assisted ultrasound system |
US10105186B2 (en) | 2014-06-09 | 2018-10-23 | The Johns Hopkins University | Virtual rigid body optical tracking system and method |
US10441366B2 (en) * | 2014-10-22 | 2019-10-15 | Think Surgical, Inc. | Actively controlled optical tracker with a robot |
EP3185811A4 (en) | 2014-11-21 | 2018-05-23 | Think Surgical, Inc. | Visible light communication system for transmitting data between visual tracking systems and tracking markers |
JP6748088B2 (ja) | 2015-02-25 | 2020-08-26 | マコ サージカル コーポレーション | 外科手術中の追跡中断を低減するナビゲーションシステム及び方法 |
DE102015007395A1 (de) | 2015-06-08 | 2016-12-08 | Kuka Roboter Gmbh | Verfahren und System zum Betreiben und/oder Überwachen einer Maschine, insbesondere eines Roboters |
CN105427819B (zh) | 2015-12-24 | 2017-06-27 | 深圳市华星光电技术有限公司 | 栅极驱动架构及其阵列基板 |
KR20180109855A (ko) | 2016-02-26 | 2018-10-08 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 가상 경계를 이용하는 충돌 회피 시스템 및 방법 |
EP3449859B1 (en) | 2016-04-28 | 2024-07-03 | Sony Group Corporation | Control device, control method and surgical system |
DE102016118123A1 (de) | 2016-09-26 | 2018-03-29 | Medineering Gmbh | Medizinischer Haltearm zur Einbindung in ein OP-Navigationssystem |
EP3585294A1 (en) | 2017-02-22 | 2020-01-01 | Orthosoft Inc. | Bone and tool tracking in robotized computer-assisted surgery |
WO2019134743A1 (en) | 2018-01-03 | 2019-07-11 | Siemens Healthcare Gmbh | Method for acquiring and for altering a configuration of a number of objects in a procedure room and corresponding device |
WO2020015836A1 (en) | 2018-07-20 | 2020-01-23 | Brainlab Ag | Method for automatic detection of instrument orientation for robotic surgery |
-
2016
- 2016-02-24 JP JP2017541250A patent/JP6748088B2/ja active Active
- 2016-02-24 KR KR1020247009857A patent/KR20240044536A/ko unknown
- 2016-02-24 CN CN201680008515.3A patent/CN107205786B/zh active Active
- 2016-02-24 AU AU2016222790A patent/AU2016222790B2/en active Active
- 2016-02-24 US US15/052,323 patent/US10660711B2/en active Active
- 2016-02-24 KR KR1020237001704A patent/KR102653682B1/ko active Application Filing
- 2016-02-24 KR KR1020177017901A patent/KR102491907B1/ko active IP Right Grant
- 2016-02-24 EP EP23152153.5A patent/EP4197479A1/en active Pending
- 2016-02-24 CN CN202010806484.4A patent/CN111839732B/zh active Active
- 2016-02-24 EP EP16709871.4A patent/EP3261571B1/en active Active
- 2016-02-24 WO PCT/US2016/019347 patent/WO2016138124A1/en active Application Filing
-
2020
- 2020-04-20 US US16/853,146 patent/US11517377B2/en active Active
- 2020-06-24 AU AU2020204207A patent/AU2020204207B2/en active Active
- 2020-08-05 JP JP2020133117A patent/JP6998999B2/ja active Active
-
2021
- 2021-12-21 JP JP2021206995A patent/JP7344271B2/ja active Active
-
2022
- 2022-02-04 AU AU2022200731A patent/AU2022200731B2/en active Active
- 2022-11-08 US US17/982,845 patent/US20230053668A1/en active Pending
-
2024
- 2024-02-26 AU AU2024201278A patent/AU2024201278A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140039681A1 (en) * | 2012-08-03 | 2014-02-06 | Stryker Corporation | Surgical Manipulator Capable of Controlling a Surgical Instrument in Multiple Modes |
US20140276943A1 (en) * | 2013-03-13 | 2014-09-18 | Stryker Corporation | Systems and Methods for Establishing Virtual Constraint Boundaries |
Also Published As
Publication number | Publication date |
---|---|
CN111839732B (zh) | 2024-07-02 |
AU2020204207A1 (en) | 2020-07-16 |
AU2020204207B2 (en) | 2021-11-04 |
AU2016222790A1 (en) | 2017-07-13 |
AU2024201278A1 (en) | 2024-03-14 |
JP6748088B2 (ja) | 2020-08-26 |
EP3261571B1 (en) | 2023-03-08 |
WO2016138124A1 (en) | 2016-09-01 |
KR20170139493A (ko) | 2017-12-19 |
JP2022034001A (ja) | 2022-03-02 |
JP2023175727A (ja) | 2023-12-12 |
AU2022200731A1 (en) | 2022-02-24 |
US20230053668A1 (en) | 2023-02-23 |
AU2022200731B2 (en) | 2023-11-30 |
JP2018506352A (ja) | 2018-03-08 |
US20200246082A1 (en) | 2020-08-06 |
KR20240044536A (ko) | 2024-04-04 |
AU2016222790B2 (en) | 2020-04-02 |
US10660711B2 (en) | 2020-05-26 |
EP4197479A1 (en) | 2023-06-21 |
KR102491907B1 (ko) | 2023-01-26 |
CN107205786A (zh) | 2017-09-26 |
US11517377B2 (en) | 2022-12-06 |
CN111839732A (zh) | 2020-10-30 |
CN107205786B (zh) | 2020-08-25 |
JP7344271B2 (ja) | 2023-09-13 |
JP6998999B2 (ja) | 2022-01-18 |
EP3261571A1 (en) | 2018-01-03 |
KR102653682B1 (ko) | 2024-04-03 |
US20160242858A1 (en) | 2016-08-25 |
JP2020189123A (ja) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102491907B1 (ko) | 수술절차 중에 추적 방해를 감소시키기 위한 내비게이션 시스템 및 방법 | |
US11844574B2 (en) | Patient-specific preoperative planning simulation techniques | |
CN108472096B (zh) | 用于在由虚拟对象限定的目标部位处对患者执行手术的系统和方法 | |
CN110997247B (zh) | 用于产生反作用力以实现虚拟边界的机器人系统和方法 | |
CN115379814A (zh) | 用于基于虚拟边界控制工具的机器人移动的系统和方法 | |
US20230329813A1 (en) | Systems And Methods For Guided Placement Of A Robotic Manipulator | |
JP7572524B2 (ja) | 外科用ナビゲーションシステム及びその操作方法 | |
AU2023257233A1 (en) | Systems and methods for guided placement of a robotic manipulator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
A107 | Divisional application of patent |